Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Un grupo de investigadores de varias de las universidades más importantes de Estados Unidos, liderados por Joseph Bak-Coleman, de la Escuela de Periodismo de la Universidad de Columbia, Nueva York, pidieron crear un panel intergubernamental para vigilar las tecnologías digitales. (Le puede interesar: Al parecer existieron menos tiranosaurios rex de los que creíamos)
Ante el rápido crecimiento y masificación de herramientas como ChatGPT y otras tecnologías que funcionan con Inteligencia Artificial (IA), que pueden tener grandes beneficios para muchos sectores, así como facilitar el trabajo de algunas personas, para estos investigadores existen varias consideraciones de riesgo.
En un artículo publicado en la revista Nature, los científicos de diferentes áreas llamaron la atención sobre algo que consideran que debería tener una relevancia similar a la del cambio climático. Para ellos, debería crearse un mecanismo similar al Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) de la Organización de las Naciones Unidas, pues consideran que la incidencia de los Estados podría ser mucho más persuasiva que la que ejercen investigadores independientes en la actualidad.
Una de sus preocupaciones es que quienes se dedican a la investigación sobre los impactos y peligros de las tecnologías en el mundo se encuentran con barreras de acceso a la información, algo que podría sesgar el panorama que tenemos sobre las consecuencias que podrían tener. (Le recomendamos: Las precarias condiciones de salud infantil durante la Revolución Industrial)
Cuando un investigador independiente solicita información con fines investigativos a una empresa que desarrolló una Inteligencia Artificial, es muy probable que su solicitud sea rechazada, aseguran. En cambio, la mediación de un panel intergubernamental podría generar regulaciones que hagan más fácil el acceso.
Si bien los autores reconocen que ya hay centros de investigación y universidades dedicadas al estudio de esta problemática, consideran que deben tomarse más acciones, pues temen que empiecen a verse repercusiones graves en diferentes áreas.
“Los algoritmos de aprendizaje automático diseñados para orientar a los propietarios sobre los precios de los alquileres, por ejemplo, han apoyado dinámicas similares a las de los cárteles en lo que respecta a los precios de los alquileres y las restricciones de la oferta. Y los algoritmos que dirigen a la policía hacia “zonas de alta criminalidad”, utilizando datos sobre la ubicación de detenciones anteriores, pueden exacerbar los sesgos existentes en el sistema de justicia penal”, escribieron los investigadores. (También puede leer: Crean un mapa 3D del Titanic que podría dar nuevas pistas sobre el accidente)
Otro aspecto que podría verse afectado es el de la investigación científica, pues consideran que la producción masiva de textos “con imprecisiones y falsedades” generados por una IA, así como la eliminación de barreras de lenguaje, terminarían amenazando la colaboración internacional entre investigadores. Esto, aseguran, “podría socavar la comprensión pública de la ciencia”.
Finalmente, aclararon que su intención no es que se restrinja o se elimine el uso de estas herramientas. Sin embargo, sí defienden que, como en otras revoluciones sociales y tecnológicas (como la Revolución Industrial), es importante que exista una gestión que prevenga y mitigue los riesgos que se presentan.
👩🔬📄 ¿Quieres conocer las últimas noticias sobre ciencia? Te invitamos a verlas en El Espectador. 🧪🧬