Publicidad

El “padrino” de la IA deja Google y avisa de los peligros de esta tecnología

A corto plazo, este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y videos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real. Sin embargo, el futurno no tiene que ser apocalíptico.

Se hace evidente que el desarrollo de las inteligenciar artificiales esté acompañado de una clara línea ética y regulatoria, para mitigar los usos indebidos de este tipo de tecnologías.
Se hace evidente que el desarrollo de las inteligenciar artificiales esté acompañado de una clara línea ética y regulatoria, para mitigar los usos indebidos de este tipo de tecnologías.
Foto: EFE - Rayner Peña R.
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial (IA), ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según dijo en una entrevista publicada este lunes por The New York Times.

A menudo llamado el "padrino" de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. "Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho", señaló al diario neoyorquino.

Lea también: ¿Por qué Samsung les prohibió a sus empleados usar plataformas como ChatGPT?

Su voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de los nuevos bots de texto como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito.

"Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas", dijo Hinton en la entrevista, en la que avisa sobre la excesiva velocidad a la que se están logrando avances.

"Mire cómo era hace cinco años y cómo es ahora", apuntó. "Tome la diferencia y propáguela hacia adelante. Eso asusta", señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica junto a otros tres pioneros de la IA por su trabajo.

A corto plazo, este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y videos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real, pero también cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad.

Le puede interesar: Instan a Apple y Spotify frenar IA para proteger el ‘copyright’ de la música

"La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían", explicó. "Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", añadió.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.

A través de Twitter, Hinton quiso puntualizar después que no deja Google para poder criticar a la empresa, sino para poder hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él “ha actuado de forma muy responsable”.

El futuro no tiene que ser apocalíptico

No es ni será la única vez en que alguien se refiera con tal preocupación a las inteligencias artificiales. Hemos visto, recientemente, discursos similares desde otras vertientes, entre ellas Elon Musk. El magnate firmó una carta, junto con otras personalidades tecnológicas, para pedir un plazo (de seis meses) que suspenda el desarrollo de estas tecnologías, con el fin de tener un panorama más claro de su impacto (aunque hay quienes creen que dicha solicitud obedece más a fines económicos que de seguridad).

Lo cierto es que tales preocupaciones no son desproporcionadas, pues se ha demostrado que el uso malintencionado de las inteligencias artificiales, especialmente las del tipo conversacional, pueden ayudar a cibercriminales en la redacción de código malicioso (los conocidos virus informáticos), la realización de mensajes para campañas de phishing (usadas para robar contraseñas de redes sociales, correos electrónicos y credenciales bancarias), así como los riesgos sobre el tratamiento indebido de datos personales.

Le sugerimos leer: ChatGPT promete a Italia “reforzar la transparencia” tras ser bloqueado

No obstante, el panorama evidencia la importancia de que estos desarrollos se acompañen de una línea ética y regulatoria que mitigue estas y otras amenazas. Cada vez son más los desarrolladores que cobran conciencia sobre esto, implementando códigos de ética en sus herramientas (como prohibiendo la formulación de cierto tipo de preguntas y solicitudes, o estableciendo estrictas reglas en pro de la privacidad de sus usuarios).

También se espera que organizaciones internacionales comiencen a sacar leyes y acuerdos que pongan límites a estos desarrollos, poniendo por encima los derechos fundamentales.

Más allá de ser el inicio del fin del mundo, las inteligencias artificiales podrían ser (como muchas otras herramientas) instrumentos que faciliten el desarrollo de la humanidad. Precisamente, como herramienta, su bondad o maldad no está en su esencia, sino en la de quien la manipula.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar