El Gobierno prepara hoja de ruta de inteligencia artificial. ¿Incluirá la ética?
El Ministerio de Ciencia está desarrollando una hoja de ruta para el desarrollo y aplicación de la inteligencia artificial en el país, que estaría lista para final de este año. Una de las preguntas más grandes es cómo hacer que la tecnología sea ética, y algunos profesores colombianos tienen una idea de cómo lograrlo.
María Camila Bonilla
El lanzamiento de ChatGPT en noviembre de 2022 marcó tendencias y provocó intensos debates en colegios, universidades y distintas industrias. La popularidad de la inteligencia artificial fue tal que la Fundación del Español Urgente (FundéuRAE), promovida por la Agencia EFE y la Real Academia Española (RAE), la escogió como la palabra del año en 2022.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
El lanzamiento de ChatGPT en noviembre de 2022 marcó tendencias y provocó intensos debates en colegios, universidades y distintas industrias. La popularidad de la inteligencia artificial fue tal que la Fundación del Español Urgente (FundéuRAE), promovida por la Agencia EFE y la Real Academia Española (RAE), la escogió como la palabra del año en 2022.
Colombia no se ha quedado atrás en la discusión. De hecho, en un foro realizado hace unas semanas en la Universidad Javeriana, el Ministerio de Ciencia afirmó que le apuntará a promover el uso de la tecnología artificial para cumplir con el Plan Nacional de Desarrollo (PND) del gobierno de Gustavo Petro.
Por eso, también anunció que está desarrollando la primera hoja de ruta para el desarrollo y la aplicación de la inteligencia artificial en Colombia, que “buscará el progreso en distintas áreas”, indicó Yesenia Olaya, ministra de Ciencia. El documento, que abordará ocho sectores diferentes, incluyendo el de educación y de empresas, aún está en proceso de construcción, pero se espera que su publicación oficial sea a finales de este año.
Olaya enfatizó que uno de los puntos centrales de discusión, además de los potenciales usos de la tecnología en los campos de agricultura, educación y desarrollo espacial, es cómo asegurar el uso ético de esta nueva tecnología. Ese ha sido uno de los debates más intensos que ha generado la inteligencia artificial. Hace algunos meses, Geoffrey Hinton, quien ayudó a desarrollar la inteligencia artificial de Google, renunció a la compañía, citando algunas de sus profundas preocupaciones por sus posibles usos.
En una entrevista con BBC, incluso, afirmó que algunos de los peligros de chatbots como ChatGPT son “bastante aterradores”, ya que pueden llegar a ser más inteligentes que los humanos y pueden ser explotados por “malos actores”. (También puede leer: La edad mínima que sugiere Unesco para que los niños usen inteligencia artificial)
“Cada vez es más obvio que no se trata solamente de resolver problemas, sino de hacerlo éticamente”, afirma Andrés Páez, filósofo con maestría y doctorado en esa disciplina de la Universidad de la Ciudad de Nueva York, y quien ahora investiga sobre la incorporación de las consideraciones éticas al hablar sobre la inteligencia artificial en la Universidad de los Andes.
¿Cuáles son los problemas éticos de la inteligencia artificial?
Es probable que haya visto videos, blogs o entrevistas que adviertan que, eventualmente, los bots adquirirán consciencia propia y nos conquistarán; o, tal vez, haya visto que nos quitarán nuestros trabajos, una discusión que ha cobrado espacial relevancia en vista de las huelgas de actores y escritores de Hollywood.
Todos estos potenciales riesgos, explica la filósofa colombiana Diana Acosta, quien ahora investiga sobre la ética en la inteligencia artificial en la Universidad de Stanford, son a largo plazo, y “aún faltaría que sucedan varias cosas para que lleguemos allá”, opina. “Ahora estamos viendo que el impacto de estas tecnologías es masivo, entonces sabemos que una tecnología sesgada impactaría a un grupo enorme de personas”.
Al mencionar los “sesgos”, Acosta hace referencia a una de las preocupaciones éticas más consistentes que se presentan al hablar sobre la inteligencia artificial. Pensemos en una situación cotidiana para entender mejor el concepto. Es probable que, al ver a un “mal” conductor en la calle, algunas personas asuman que hay una mujer al volante. Hay una idea o prejuicio sobre la situación, que, en ese caso, desfavorece a las mujeres.
Con la inteligencia artificial existen riesgos similares. Paéz, de la U. de los Andes, lo explica con el siguiente ejemplo: a empresas como Amazon o sitios como Linkedin les llegan miles de aplicaciones laborales constantemente y entonces le piden a un algoritmo que organice y priorice hojas de vida de acuerdo con ciertos criterios.
Lo que puede terminar sucediendo es que una empresa de la industria tecnológica, por ejemplo, le pida al algoritmo que escoja candidatos que mejor se ajusten a sus necesidades. Eventualmente, esto puede terminar reproduciendo desigualdades que ya se presentan en la sociedad.
“Tienden a escoger más hombres que mujeres, porque históricamente han participado más en el campo de la tecnología. También pueden escoger personas de ciertas razas o clases sociales, porque simplemente tuvieron una mayor oportunidad de alcanzar cierto nivel educativo”, explica Páez.
Los sesgos son solo una parte de las preocupaciones éticas que despierta la tecnología. También se está discutiendo sobre cómo asegurar que la inteligencia artificial no genere más desinformación o que no sea un portal para que los datos personales de los usuarios queden cada vez más expuestos.
No existe una sola respuesta a cómo lidiar con estas inquietudes, pero profesores e investigadores de distintas partes del mundo han empezado a apuntarle a la educación para desarrollar una inteligencia artificial más ética.
La apuesta de la educación para hacer una tecnología más ética
Aunque aún falta un largo camino por recorrer para implementar esa hoja de ruta que busca establecer el Minciencias, hay algunos procesos que pueden ayudar a abordar estos desafíos éticos. Uno de ellos está en la U. de Stanford, en Estados Unidos, donde está la colombiana Acosta como becaria postdoctoral.
En esa institución, se está implementado el programa Embedded Ethics (algo así como ética integrada), una iniciativa que empezó en 2017 como una colaboración entre el departamento de Filosofía y la escuela de Ingeniería en la Universidad de Harvard. Acosta cuenta que detrás de la iniciativa estuvieron las investigadoras Alison Simmons y Barbara Grosz, que se unieron para pensar en una forma de abordar el problema ético en la inteligencia artificial.
Lo que encontraron es que hay una buena posibilidad al educar “a las personas que están construyendo estos sistemas desde el comienzo de su carrera, para que entiendan que las competencias éticas son tan importantes como cualquier competencia técnica que puedan adquirir”, apunta Acosta.
Ahora, lo que está haciendo la filósofa colombiana es ayudar a implementar el programa en Stanford. En tres años, indica, han impactado a unos 10 mil estudiantes. ¿Qué hacen, exactamente? Acosta explica que no se trata de tener una clase de ética en el currículo de la carrera, sino de incluir componentes de ética en muchas clases, “de manera que, a medida que los estudiantes avancen, se encuentren con discusiones éticas relacionadas directamente con las habilidades técnicas que van aprendiendo a lo largo de su carrera”.
Entonces, cuenta la filósofa, en el curso introductorio de programación, hay un momento en donde los estudiantes aprenden a manipular imágenes. “Y en ese punto les hablamos de cuál es la diferencia, en términos éticos, entre manipular imágenes para ayudar a la gente a entender cosas o para erosionar su autonomía”.
En Colombia también se están desarrollando iniciativas desde las universidades para abordar los problemas éticos de la inteligencia artificial. En la Universidad de los Andes, por ejemplo, está el Centro de Investigación y Formación en Inteligencia Artificial (Cinfonia), en donde trabajan filósofos e ingenieros.
El filósofo Páez, quien hace parte del centro, cuenta que el primer proyecto conjunto que realizaron es una Maestría en Inteligencia Artificial, que se inauguró este pasado mes. Esta es una maestría virtual, orientada para estudiantes que tengan conocimientos en programación, “como alguien que esté a la mitad de la carrera de ingeniería”, precisa.
Quienes se matriculen en la maestría tendrán que tomar un curso obligatorio de ética en el primer semestre, que aborda las consideraciones éticas que deberían incluir en el desarrollo de la inteligencia artificial, pero también información sobre los marcos jurídicos y regulatorios que existen al respecto en todo el mundo.
Desde Cinfonia, además, dictan cursos para empresas, como bancos o farmacéuticas, que utilizan inteligencia artificial para manejar los datos de los clientes o desarrollar medicamentos, por ejemplo. Por medio de los talleres, dice Páez, no apuntan a darles las respuestas para resolver los problemas éticos de la inteligencia artificial, sino, más bien, “mostrarle primero cuáles son las dimensiones éticas de los problemas, porque a veces ni las detectan”.
Estas iniciativas no resolverán todos los problemas éticos de fondo que se pueden presentar con la inteligencia artificial, pues, como indica Acosta, “todas las soluciones técnicas son limitadas”. Sin embargo, sí son parte de una “respuesta holística al problema que, por otra parte, también necesita mayor regulación porque, de lo contrario, se está dependiendo únicamente a la buena voluntad de las personas, y eso no siempre sale tan bien”.