Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Hace unos días, se publicó un artículo académico que lleva por título “El impacto del consumo de frutas y verduras y la actividad física en el riesgo de diabetes entre los adultos”. A simple vista, es una investigación más de las miles que se publican al día en cientos de revistas académicas: tiene su resumen, una introducción, la sección en la que se explica la hipótesis del trabajo y su metodología, así como los resultados, discusión y conclusión. (Puede leer: Inteligencia artificial: ¿Para aprender o para hacer copia en clase?)
Por ejemplo, en este documento, se investigó sobre la asociación que existe entre el consumo de frutas y verduras, la actividad física y el riesgo de diabetes entre los adultos. Los resultados de esta investigación muestran que “un mayor consumo de fruta y verdura se asocia con un menor riesgo de diabetes”.
Sin embargo, este no es un artículo académico común y corriente, ya que fue realizado en menos de una hora utilizando la ayuda de ChatGPT, una herramienta que emplea la inteligencia artificial para generar textos. Pero no se trata de un intento de plagio, ni de querer engañar a la comunidad científica. (Le puede interesar: El James Webb detecta el agujero negro supermasivo activo más distante hasta ahora)
El objetivo, como le explicó Roy Kishony, biólogo y científico de datos del Instituto Tecnológico de Israel, a Nature era el de explorar las capacidades de esta herramienta y generar un debate alrededor del uso de ChatGPT.
Según explicaron Kishony y su estudiante Tal Ifargan, acompañaron a la herramienta en cada momento del proceso. Lo primero que hicieron fue descargar y entregarle a ChatGPT una base de datos de Estados Unidos que incluye los datos de más de 250.000 personas relacionados con su consumo de fruta y verdura, actividad física y estado de diabetes. (También puede leer: India se prepara para llegar a la Luna con la misión Chandrayaan-3)
Luego, le pidieron a ChatGPT que generará un código para analizar tal cantidad de datos y, tras corregir una primera versión que contenía varios errores, obtuvieron un código útil. Posteriormente, utilizaron la herramienta para generar un objetivo de estudio y un análisis de los datos. Así obtuvieron el resultado que se encuentra en el documento.
Finalmente, le solicitaron que con la información que había generado escribiera un artículo que tuviera la composición de un escrito académico (el texto se puede consultar al final de esta nota). Pero, más allá que ChatGPT lograra redactar todo un artículo, ¿qué tan bien quedó hecha la tarea? (Puede interesarle: Esta es la imagen más nítida que se conoce del embrión vivo de un humano)
Kishony y Ifargan destacan que el texto tiene buena redacción y contiene un “sólido análisis de datos”. Pero también señalan que en varios pasajes la herramienta incluyó citas falsas o información imprecisa para rellenar vacíos.
Para Kishony, el uso de herramientas de inteligencia artificial puede llevar a prácticas deshonestas en la comunidad científica y a que las revistas académicas reciban muchos de estos artículos que tienen una baja calidad.
Sin embargo, Shantanu Singh, un biólogo computacional del Instituto Broad del MIT y Harvard consultado por Nature, aseguró que ChatGPT y otros programas similares pueden ser utilizados para tareas sencillas como la redacción del resumen o la generación de código. (Puede leer: Las mutaciones genéticas no hereditarias que se relacionarían con la esquizofrenia)
Acá puede leer el artículo escrito por ChatGPT: