Ensayo: ¿Quién le pone el cascabel a la Inteligencia Artificial?
La preocupación es global: 20 países de América Latina acordaron una Declaración de Recomendaciones para una Inteligencia Artificial Ética y una reunión semejante sacó sus propias conclusiones en Reino Unido, mientras Washington expidió un decreto para regularla. ¿Falta coordinación en un tema crucial para el futuro humano?
Carlos Gutiérrez * / ESPECIAL DE CONNECTAS PARA EL ESPECTADOR
El caso de Diego “N” corrió como pólvora en las redes sociales cuando se descubrió que en su tableta tenía miles de imágenes de estudiantes desnudas, presuntamente con el fin de venderlas por internet. Las había tomado de plataformas digitales para alterarlas por medio de inteligencia artificial (IA). El joven universitario fue detenido y hoy se encuentra en espera de que la justicia le dicte sentencia. (Lea otro artículo de Connectas para El Espectador sobre los nuevos narcos latinoamericanos).
Este suceso causó gran revuelo a principios de octubre, por ser el primero en México en el que se utiliza la IA para cometer un delito contra la intimidad sexual, algo que el Código Penal de la Ciudad de México castiga con varios años de prisión. Sin embargo, no es el único conocido, ya que se han reportado hechos similares en New Jersey y en España. Al parecer, los delincuentes aprovechan una app que permite “quitarles” la ropa a las fotos de las personas.
Historias como estas han despertado las alarmas en el mundo desde que irrumpió la IA, un conjunto de tecnologías cada vez más esenciales para que los países, las empresas y las personas puedan participar de lo que los expertos denominan “la cuarta revolución industrial”. Sin embargo, evoluciona tan aceleradamente, que resulta complicado controlar su uso y evitar que cause daños a las personas y al planeta mismo.
Los delitos de acto de Diego “N” demuestran que actualmente cualquier persona puede adoptar la IA sin regulación alguna. En un texto publicado en la Revista pedagógica de la Universidad de Cienfuegos, Roberto Carlos Dávila y Eucaris del Carmen Agüero enumeran los principales desafíos éticos que representa la IA. Entre otros, señalan la necesidad de que las personas sean las que tomen las decisiones, que las empleen con responsabilidad y que lo hagan con transparencia. Asimismo, indican que se debe mantener un estricto control sobre el uso de los datos y alcanzar “una transición justa” para evitar pérdidas laborales.
Los riesgos que representa la IA se pueden generalizar “a casi todos los países”, y muchos de los principios éticos que se vislumbran hacen coincidir en que es necesario regular el uso de estas tecnologías, considera el académico de la Universidad Autónoma del Estado de Hidalgo, Félix Castro. El gran dilema es que, frente a estas tecnologías que evolucionan con rapidez y son transfronterizas, hasta ahora no hay quién tenga la capacidad de establecer un marco regulatorio que haga frente a los retos que señalan los expertos.
Otro problema es que actualmente las reglas “son establecidas por un pequeño grupo de conocedores de la industria”, quienes deciden cuál debería ser el comportamiento de estas tecnologías. No obstante, lo hacen basados en “su ética personal, sus incentivos comerciales y la presión del exterior”, escribe Kevin Roose, autor de Futureproof: 9 Rules for Humans in the Age of Automation, en The New York Times. No existen, añade, “controles sobre este poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar”.
En los últimos días el tema se ha puesto en la agenda de varias naciones, que se han reunido para establecer lineamientos que puedan, idealmente, ayudar a encontrar un marco regulatorio en común. Una de estas convocatorias tuvo lugar a finales de octubre en Chile, donde un grupo de 20 países firmó la Declaración de Santiago, para promover una inteligencia artificial ética en América Latina y el Caribe. Según se lee en el texto, encuentran posible que la IA contribuya “a la transformación de los modelos de desarrollo” de los diferentes países, con el fin de hacerlos “más productivos, inclusivos y sostenibles”. Para ello “se requiere reflexión, visión estratégica, regulación, gobernanza y coordinación regional y multilateral”.
El 30 de octubre, el presidente de Estados Unidos, Joe Biden, también expidió un decreto en el que busca hacer obligatoria la identificación de cualquier contenido generado por medio de IA. El documento abarca aspectos como discriminación y el impacto de estas tecnologías en la creación de empleos. Todo ello en un escenario de “feroz competencia internacional”, como la describe la Deutsche Welle en su portal noticioso. “Es la medida más importante que cualquier gobierno del mundo haya adoptado en materia de seguridad y confianza en la IA”, dijo el mandatario norteamericano antes de firmar el mandato.
Dos días después, representantes de 28 países se reunieron en Reino Unido para validar la Declaración de Bletchley, en donde apuestan por alcanzar un “nuevo esfuerzo global conjunto”, debido a que hay “un potencial de daño grave, incluso catastrófico, ya sea deliberado o no, derivado de las capacidades más significativas” de los modelos de IA.
Resulta sintomático que los países se reúnan para evaluar, en conjunto, las virtudes y los desafíos que representa la IA: no pueden hacerlo solos, porque estas tecnologías rebasan sus fronteras. En la Declaración de Santiago se hace patente la necesidad de que los diferentes Estados encuentren e impulsen un “diálogo social”, con el fin de reflexionar sobre la sociedad que quieren construir, los derechos que deben salvaguardar y los aspectos que se deban regular, siempre tomando en cuenta las necesidades, particularidades y desafíos de cada una de las naciones.
En dicho diálogo, señala el manifiesto firmado en Chile, deben participar las empresas privadas desarrolladoras de IA, la sociedad civil, la academia, “así como todos los actores del ciclo de vida de la IA”, con el fin de “asegurar una gobernanza multisectorial”.
El riesgo de este tipo de acuerdos es que se estandaricen las dificultades y características de cada nación. Y es que las diferencias son esenciales. Por ejemplo, en América Latina existen dinámicas distintas a las de Estados Unidos y Europa, explica Lucía Ortiz de Zárate, investigadora de la Universidad Autónoma de Madrid.
Eso comienza por la brecha en la capacidad de desarrollar sistemas propios de IA. En Latinoamérica, como no existe, hay que importar modelos del Norte. Por ello, habría que “evitar que se perpetúen dinámicas de colonialismo tecnológico y de datos que ya se están produciendo entre Occidente, entre los países del Norte global y América Latina”, ahonda la experta. Un caso similar, añade, ocurre en África, donde también se necesita “de la colaboración y, sobre todo, de la conciencia de los países del Norte global” para evitar prácticas que benefician solo a naciones desarrolladas.
Por otro lado, en un texto académico, Xavier Barragán, investigador de la Escuela de Prospectiva Estratégica, en Ecuador, analiza la realidad latinoamericana en el marco de la IA. De acuerdo con su estudio, la región está en una clara desventaja con respecto a quienes se apuntan a ser los grandes titanes, ya que “presenta las limitaciones sociales y económicas, que no han permitido realizar inversiones públicas y privadas para avanzar en IA”. Los países que se encuentran a la cabeza son Argentina, Brasil, Chile, Colombia, México y Uruguay.
En octubre, OBS Business School dio a conocer un informe en el que habla del impacto de la revolución de la IA en América Latina. “La penetración relativa de habilidades tecnológicas y disruptivas asociadas a la IA” es bastante menor en el subcontinente (2,16 %) que en el resto del mundo (3,59 %), informa. Ello “limita este desarrollo en comparación con otras regiones del mundo”. No obstante, considera que varios países ya “están adoptando estrategias nacionales para integrar la IA de manera estratégica y segura”, además de que se están enfocando “en desarrollar un enfoque ético y centrado en el ser humano hacia la IA”. De ese modo tratan de garantizar “la imparcialidad, mitigar el sesgo y establecer mecanismos de rendición de cuentas”.
Pero no todos los gobiernos mundiales ven de la misma manera la IA. Barragán encuentra que hay una “fuerte carrera” por el liderazgo global, encabezada principalmente por Estados Unidos, China y la Unión Europea. En esta última, el Parlamento estima que para 2030 la IA contribuirá con más de 11.000 millones de euros a la economía mundial, con un crecimiento en el PIB europeo del 20 %.
En Europa, en 2021, se presentó la primera propuesta de regulación en materia de IA, informa Ortiz de Zárate. Tenía la intención de crear un “sello de identidad propio” en términos de gobernanza, que le permitiera diferenciarse de “otros gigantes, como China y Estados Unidos”, que apostaban por una normatividad que priorizara la innovación, pero no protegía a la ciudadanía. Explica que la Unión Europea tiene conciencia de que no puede competir con China o Estados Unidos. Por ello, apuesta por el respeto “de nuestros valores europeos tradicionales de defensa de las libertades y la ética, etcétera”.
Estados Unidos tiene una situación singular, porque busca competir con China, un país que “no ha apostado por la regulación”, sino que “quiere desarrollar tecnologías de inteligencia artificial potentes a toda costa, incluyendo el ámbito militar y de las armas”, dice Ortiz de Zárate. Para ella, el gobierno de Biden “está en esa batalla”. Sin embargo, cree que, a diferencia de China, quiere mostrar que tiene unos “estándares éticos mínimos”.
El gran desafío es alcanzar una gobernanza global de la IA que al mismo tiempo respete las necesidades y contextos de cada región. Esta debe apelar “a las formas de diseño, adopción y uso que se hace de este tipo de tecnologías y cómo las vamos a abordar desde distintos planos, como el político, el de la esfera pública y de la ciudadanía. Cómo vamos a incorporarla como un elemento en nuestra sociedad de forma armoniosa y en consonancia con nuestros valores y sistemas democráticos”, analiza Ortiz de Zárate. En el caso de América Latina, se podría apostar “por romper con espacios de dependencia” con el norte global, dice la investigadora.
Roose está convencido de que la gobernanza de “las inteligencias artificiales” aumentaría “la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes”. También evitaría repetir la historia de las redes sociales, que se generalizaron sin ningún tipo de regulación, por lo que “un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea”.
En su artículo, Roose habla de Collective Constitutional AI, un proyecto de Anthropic, el fabricante del chatbot Claude, que propone un modelo basado en normas escritas que permitirían “vigilar la conducta de un modelo de inteligencia artificial”, es decir, para manejar “solicitudes sensibles” por medio de un chatbot alimentado con instrucciones apropiadas, que supiera distinguir temas prohibidos “y cómo actuar conforme a los valores humanos”. Si este ejercicio funciona, expone el escritor, “podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas”.
Antes de plantear la regulación de la IA hay que conocerla, recomienda, por su parte, el académico de la Universidad Nacional de Cuyo, Andrés Ferez. “No se puede regular o intentar alzar voces en contra o a favor sin antes saber qué es realmente la inteligencia artificial”, dice. Asimismo, sostiene que es un error equiparar la IA con la inteligencia humana, pues son muy diferentes. Hay muchos mitos en torno a estas tecnologías y, para deshacerlos, se requiere una “alfabetización digital”, la cual incluye el manejo de IA, que “aún no está incluida en los diseños curriculares”.
En Latinoamérica “vamos por buen camino”, afirma con entusiasmo el doctor en Inteligencia Artificial Félix Castro, quien mira con buenos ojos la Declaración de Santiago, y agrega que ojalá cada país tenga presentes los presupuestos que expone, así como los establecidos en la Unesco “hace varios años”. Con ello, se puede vencer el miedo de que la IA “nos gobierne como humanidad”. Porque, para él, las estrategias, los principios y los compromisos como el firmado en Chile “van a ayudar a sentar las bases para eliminar, en la medida de lo posible, utilizaciones indebidas” en estas tecnologías. Avances que podrían ser lo más indomable que la humanidad haya diseñado jamás.
* Periodista mexicano. Miembro de la Mesa Editorial de Connectas. Doctor en Lenguajes.
El caso de Diego “N” corrió como pólvora en las redes sociales cuando se descubrió que en su tableta tenía miles de imágenes de estudiantes desnudas, presuntamente con el fin de venderlas por internet. Las había tomado de plataformas digitales para alterarlas por medio de inteligencia artificial (IA). El joven universitario fue detenido y hoy se encuentra en espera de que la justicia le dicte sentencia. (Lea otro artículo de Connectas para El Espectador sobre los nuevos narcos latinoamericanos).
Este suceso causó gran revuelo a principios de octubre, por ser el primero en México en el que se utiliza la IA para cometer un delito contra la intimidad sexual, algo que el Código Penal de la Ciudad de México castiga con varios años de prisión. Sin embargo, no es el único conocido, ya que se han reportado hechos similares en New Jersey y en España. Al parecer, los delincuentes aprovechan una app que permite “quitarles” la ropa a las fotos de las personas.
Historias como estas han despertado las alarmas en el mundo desde que irrumpió la IA, un conjunto de tecnologías cada vez más esenciales para que los países, las empresas y las personas puedan participar de lo que los expertos denominan “la cuarta revolución industrial”. Sin embargo, evoluciona tan aceleradamente, que resulta complicado controlar su uso y evitar que cause daños a las personas y al planeta mismo.
Los delitos de acto de Diego “N” demuestran que actualmente cualquier persona puede adoptar la IA sin regulación alguna. En un texto publicado en la Revista pedagógica de la Universidad de Cienfuegos, Roberto Carlos Dávila y Eucaris del Carmen Agüero enumeran los principales desafíos éticos que representa la IA. Entre otros, señalan la necesidad de que las personas sean las que tomen las decisiones, que las empleen con responsabilidad y que lo hagan con transparencia. Asimismo, indican que se debe mantener un estricto control sobre el uso de los datos y alcanzar “una transición justa” para evitar pérdidas laborales.
Los riesgos que representa la IA se pueden generalizar “a casi todos los países”, y muchos de los principios éticos que se vislumbran hacen coincidir en que es necesario regular el uso de estas tecnologías, considera el académico de la Universidad Autónoma del Estado de Hidalgo, Félix Castro. El gran dilema es que, frente a estas tecnologías que evolucionan con rapidez y son transfronterizas, hasta ahora no hay quién tenga la capacidad de establecer un marco regulatorio que haga frente a los retos que señalan los expertos.
Otro problema es que actualmente las reglas “son establecidas por un pequeño grupo de conocedores de la industria”, quienes deciden cuál debería ser el comportamiento de estas tecnologías. No obstante, lo hacen basados en “su ética personal, sus incentivos comerciales y la presión del exterior”, escribe Kevin Roose, autor de Futureproof: 9 Rules for Humans in the Age of Automation, en The New York Times. No existen, añade, “controles sobre este poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar”.
En los últimos días el tema se ha puesto en la agenda de varias naciones, que se han reunido para establecer lineamientos que puedan, idealmente, ayudar a encontrar un marco regulatorio en común. Una de estas convocatorias tuvo lugar a finales de octubre en Chile, donde un grupo de 20 países firmó la Declaración de Santiago, para promover una inteligencia artificial ética en América Latina y el Caribe. Según se lee en el texto, encuentran posible que la IA contribuya “a la transformación de los modelos de desarrollo” de los diferentes países, con el fin de hacerlos “más productivos, inclusivos y sostenibles”. Para ello “se requiere reflexión, visión estratégica, regulación, gobernanza y coordinación regional y multilateral”.
El 30 de octubre, el presidente de Estados Unidos, Joe Biden, también expidió un decreto en el que busca hacer obligatoria la identificación de cualquier contenido generado por medio de IA. El documento abarca aspectos como discriminación y el impacto de estas tecnologías en la creación de empleos. Todo ello en un escenario de “feroz competencia internacional”, como la describe la Deutsche Welle en su portal noticioso. “Es la medida más importante que cualquier gobierno del mundo haya adoptado en materia de seguridad y confianza en la IA”, dijo el mandatario norteamericano antes de firmar el mandato.
Dos días después, representantes de 28 países se reunieron en Reino Unido para validar la Declaración de Bletchley, en donde apuestan por alcanzar un “nuevo esfuerzo global conjunto”, debido a que hay “un potencial de daño grave, incluso catastrófico, ya sea deliberado o no, derivado de las capacidades más significativas” de los modelos de IA.
Resulta sintomático que los países se reúnan para evaluar, en conjunto, las virtudes y los desafíos que representa la IA: no pueden hacerlo solos, porque estas tecnologías rebasan sus fronteras. En la Declaración de Santiago se hace patente la necesidad de que los diferentes Estados encuentren e impulsen un “diálogo social”, con el fin de reflexionar sobre la sociedad que quieren construir, los derechos que deben salvaguardar y los aspectos que se deban regular, siempre tomando en cuenta las necesidades, particularidades y desafíos de cada una de las naciones.
En dicho diálogo, señala el manifiesto firmado en Chile, deben participar las empresas privadas desarrolladoras de IA, la sociedad civil, la academia, “así como todos los actores del ciclo de vida de la IA”, con el fin de “asegurar una gobernanza multisectorial”.
El riesgo de este tipo de acuerdos es que se estandaricen las dificultades y características de cada nación. Y es que las diferencias son esenciales. Por ejemplo, en América Latina existen dinámicas distintas a las de Estados Unidos y Europa, explica Lucía Ortiz de Zárate, investigadora de la Universidad Autónoma de Madrid.
Eso comienza por la brecha en la capacidad de desarrollar sistemas propios de IA. En Latinoamérica, como no existe, hay que importar modelos del Norte. Por ello, habría que “evitar que se perpetúen dinámicas de colonialismo tecnológico y de datos que ya se están produciendo entre Occidente, entre los países del Norte global y América Latina”, ahonda la experta. Un caso similar, añade, ocurre en África, donde también se necesita “de la colaboración y, sobre todo, de la conciencia de los países del Norte global” para evitar prácticas que benefician solo a naciones desarrolladas.
Por otro lado, en un texto académico, Xavier Barragán, investigador de la Escuela de Prospectiva Estratégica, en Ecuador, analiza la realidad latinoamericana en el marco de la IA. De acuerdo con su estudio, la región está en una clara desventaja con respecto a quienes se apuntan a ser los grandes titanes, ya que “presenta las limitaciones sociales y económicas, que no han permitido realizar inversiones públicas y privadas para avanzar en IA”. Los países que se encuentran a la cabeza son Argentina, Brasil, Chile, Colombia, México y Uruguay.
En octubre, OBS Business School dio a conocer un informe en el que habla del impacto de la revolución de la IA en América Latina. “La penetración relativa de habilidades tecnológicas y disruptivas asociadas a la IA” es bastante menor en el subcontinente (2,16 %) que en el resto del mundo (3,59 %), informa. Ello “limita este desarrollo en comparación con otras regiones del mundo”. No obstante, considera que varios países ya “están adoptando estrategias nacionales para integrar la IA de manera estratégica y segura”, además de que se están enfocando “en desarrollar un enfoque ético y centrado en el ser humano hacia la IA”. De ese modo tratan de garantizar “la imparcialidad, mitigar el sesgo y establecer mecanismos de rendición de cuentas”.
Pero no todos los gobiernos mundiales ven de la misma manera la IA. Barragán encuentra que hay una “fuerte carrera” por el liderazgo global, encabezada principalmente por Estados Unidos, China y la Unión Europea. En esta última, el Parlamento estima que para 2030 la IA contribuirá con más de 11.000 millones de euros a la economía mundial, con un crecimiento en el PIB europeo del 20 %.
En Europa, en 2021, se presentó la primera propuesta de regulación en materia de IA, informa Ortiz de Zárate. Tenía la intención de crear un “sello de identidad propio” en términos de gobernanza, que le permitiera diferenciarse de “otros gigantes, como China y Estados Unidos”, que apostaban por una normatividad que priorizara la innovación, pero no protegía a la ciudadanía. Explica que la Unión Europea tiene conciencia de que no puede competir con China o Estados Unidos. Por ello, apuesta por el respeto “de nuestros valores europeos tradicionales de defensa de las libertades y la ética, etcétera”.
Estados Unidos tiene una situación singular, porque busca competir con China, un país que “no ha apostado por la regulación”, sino que “quiere desarrollar tecnologías de inteligencia artificial potentes a toda costa, incluyendo el ámbito militar y de las armas”, dice Ortiz de Zárate. Para ella, el gobierno de Biden “está en esa batalla”. Sin embargo, cree que, a diferencia de China, quiere mostrar que tiene unos “estándares éticos mínimos”.
El gran desafío es alcanzar una gobernanza global de la IA que al mismo tiempo respete las necesidades y contextos de cada región. Esta debe apelar “a las formas de diseño, adopción y uso que se hace de este tipo de tecnologías y cómo las vamos a abordar desde distintos planos, como el político, el de la esfera pública y de la ciudadanía. Cómo vamos a incorporarla como un elemento en nuestra sociedad de forma armoniosa y en consonancia con nuestros valores y sistemas democráticos”, analiza Ortiz de Zárate. En el caso de América Latina, se podría apostar “por romper con espacios de dependencia” con el norte global, dice la investigadora.
Roose está convencido de que la gobernanza de “las inteligencias artificiales” aumentaría “la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes”. También evitaría repetir la historia de las redes sociales, que se generalizaron sin ningún tipo de regulación, por lo que “un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea”.
En su artículo, Roose habla de Collective Constitutional AI, un proyecto de Anthropic, el fabricante del chatbot Claude, que propone un modelo basado en normas escritas que permitirían “vigilar la conducta de un modelo de inteligencia artificial”, es decir, para manejar “solicitudes sensibles” por medio de un chatbot alimentado con instrucciones apropiadas, que supiera distinguir temas prohibidos “y cómo actuar conforme a los valores humanos”. Si este ejercicio funciona, expone el escritor, “podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas”.
Antes de plantear la regulación de la IA hay que conocerla, recomienda, por su parte, el académico de la Universidad Nacional de Cuyo, Andrés Ferez. “No se puede regular o intentar alzar voces en contra o a favor sin antes saber qué es realmente la inteligencia artificial”, dice. Asimismo, sostiene que es un error equiparar la IA con la inteligencia humana, pues son muy diferentes. Hay muchos mitos en torno a estas tecnologías y, para deshacerlos, se requiere una “alfabetización digital”, la cual incluye el manejo de IA, que “aún no está incluida en los diseños curriculares”.
En Latinoamérica “vamos por buen camino”, afirma con entusiasmo el doctor en Inteligencia Artificial Félix Castro, quien mira con buenos ojos la Declaración de Santiago, y agrega que ojalá cada país tenga presentes los presupuestos que expone, así como los establecidos en la Unesco “hace varios años”. Con ello, se puede vencer el miedo de que la IA “nos gobierne como humanidad”. Porque, para él, las estrategias, los principios y los compromisos como el firmado en Chile “van a ayudar a sentar las bases para eliminar, en la medida de lo posible, utilizaciones indebidas” en estas tecnologías. Avances que podrían ser lo más indomable que la humanidad haya diseñado jamás.
* Periodista mexicano. Miembro de la Mesa Editorial de Connectas. Doctor en Lenguajes.