Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La revista científica Nature destaca anualmente a 10 personas que, de acuerdo con el criterio de sus editores, hayan sido influyentes para el desarrollo de la ciencia durante el año. (Le puede interesar: El rover Perseverance investigó la historia de un antiguo lago en Marte)
Para este 2023, los editores tomaron una decisión sin precedentes: además de una lista de 10 científicos y científicas, nombraron como una de las “personalidades” influyentes a la Inteligencia Artificial (IA), tomando como ejemplo al reconocido robot ChatGPT.
“Coescribió artículos científicos - a veces a escondidas. Redactó esquemas para presentaciones, propuestas de subvenciones y clases, produjo códigos informáticos y sirvió como caja de resonancia para ideas de investigación. También inventó referencias, inventó hechos y regurgitó discursos de odio. Sobre todo, capturó la imaginación de la gente: a veces obediente, atractivo, entretenido e incluso aterrador, ChatGPT asumió cualquier papel que sus interlocutores desearan, y algunos no”. Así decidieron iniciar el perfil de la IA para la edición de 2023.
La revista consideró que esta herramienta puso sobre la mesa discusiones importantes para el futuro de la ciencia, “para bien y para mal”. Por un lado, consideran que ChatGPT y otras formas de IA han cambiado la forma en la que trabajan los científicos, facilitando procesos, agilizando búsquedas y desarrollando ideas. Por el otro, creen que ha llamado la atención sobre los límites que deben existir en su manejo, la transparencia que debe existir en su uso y las discusiones éticas que plantea hacia el futuro. (Le recomendamos: Descubrieron la fortaleza más vieja del mundo: tiene 8.000 años y está en Siberia)
Dentro de los aspectos que destacan los editores en el perfil de ChatGPT, en lo positivo, están la posibilidad de usarlo como parte de investigaciones científicas para el procesamiento de datos, el análisis de otros artículos académicos y hasta para mejorar la escritura.
“Pero la tecnología también es peligrosa”, advierten los autores. Además de los usos que se dan para plagiar artículos académicos, inventar referencias científicas y crear información imprecisa o falsa, hay otros aspectos que preocupan sobre su uso.
“Los problemas de error y sesgo, que están integrados en el funcionamiento de la IA generativa. Los LLM construyen un modelo del mundo mapeando las interconexiones del lenguaje y luego escupen muestras plausibles de esta distribución sin ningún concepto de evaluar la verdad o la falsedad”, señala el artículo. (También puede leer: Encuentran la explicación para fenómenos luminosos que se dan durante las tormentas)
Estos aspectos ponen sobre la mesa las discusiones que se han dado durante todo el año, y que quizás no hubieran cobrado importancia sin el lanzamiento de ChatGPT, sobre la ética en el uso de la IA, los límites que debería tener y cómo se involucrará en los procesos de investigación científica, en la academia y otras áreas del conocimiento. Eso sí, apuntan los editores de Nature, es una revolución que ya empezó “y no hay vuelta atrás”.
👩🔬📄 ¿Quieres conocer las últimas noticias sobre ciencia? Te invitamos a verlas en El Espectador. 🧪🧬