¿Por qué a veces los chatbots actúan de manera extraña y dicen tonterías?
Son varias las razones para no creer todo lo que un chatbot diga.
Cade Metz - The New York Times
La semana pasada, Microsoft lanzó una versión nueva de su motor de búsqueda Bing y, a diferencia de un motor de búsqueda común, incluye un chatbot que puede responder a preguntas en una prosa clara y concisa.
Desde entonces, las personas han notado que parte de lo que el chatbot de Bing genera es impreciso, engañoso y francamente raro, lo que provoca temores de que se haya vuelto capaz de sentir o ser consciente del mundo que le rodea.
Ese no es el caso. Y, para entender por qué, es importante saber cómo funcionan en realidad los chatbots.
¿El chatbot está vivo?
No. Digamos eso de nuevo: ¡no!
En junio, un ingeniero de Google, Blake Lemoine, afirmó que una tecnología de chatbots similar que es evaluada dentro de Google podía sentir. Eso es falso. Los chatbots no están conscientes y no son inteligentes... al menos no de la manera en que los humanos son inteligentes.
Entonces, ¿por qué parece vivo?
Retrocedamos un poco. El chatbot de Bing es operado por un tipo de inteligencia artificial llamada red neuronal. Eso podría sonar como un cerebro computarizado, pero el término es engañoso.
Lea también: ChatGPT dispara ‘fiebre del oro’ por la inteligencia artificial
Una red neuronal es tan solo un sistema matemático que aprende habilidades al analizar cantidades vastas de datos digitales. A medida que una red neuronal examina, por ejemplo, miles de fotografías de gatos, puede aprender a reconocer a un gato.
La mayoría de las personas usan redes neuronales todos los días. Es la tecnología que identifica a personas, animales de compañía y otros objetos en imágenes publicadas en servicios de internet como Google Fotos. Les permite a Siri y Alexa, los asistentes de voz parlanchines de Apple y Amazon, reconocer las palabras que dices. Además, es lo que traduce entre inglés y español en servicios como Traductor de Google.
Las redes neuronales son muy buenas en imitar el modo en que los humanos usan el lenguaje y eso puede confundirnos hasta pensar que la tecnología es más poderosa de lo que en realidad es.
¿Cómo, con exactitud, las redes neuronales imitan el lenguaje humano?
Hace alrededor de cinco años, investigadores en compañías como Google y OpenAI, una empresa emergente con sede en San Francisco que hace poco lanzó el popular chatbot ChatGPT, comenzaron a crear redes neuronales que aprendían de cantidades enormes de texto digital, incluyendo libros, artículos de Wikipedia, registros de chats y todo tipo de otras cosas publicadas en internet.
Le puede interesar: ¿Una nueva era para el ciberdelito?: ChatGPT puede ser usado con fines maliciosos
Estas redes neuronales son conocidas como grandes modelos de lenguaje. Son capaces de usar esos montones de datos para armar lo que podrías llamar un mapa matemático de lenguaje humano. Al emplear este mapa, las redes neuronales pueden realizar muchas labores, como escribir sus propios tuits, redactar discursos, generar programas informáticos y, sí, tener una conversación.
Estos grandes modelos de lenguaje han probado ser útiles. Microsoft ofrece una herramienta, Copilot, que se construyó con un gran modelo de lenguaje y puede sugerir la siguiente línea de código conforme programadores de computadoras crean aplicaciones de software, en una manera muy parecida a como las herramientas de autocompletado sugieren la siguiente palabra cuando escribes mensajes de texto o correos electrónicos.
Otras compañías ofrecen tecnología similar que puede generar materiales de mercadotecnia, correos electrónicos y otros textos. Este tipo de tecnología también es conocida como inteligencia artificial generativa.
¿Ahora las compañías están lanzando versiones de esto con las que puedes chatear?
Exacto. En noviembre, OpenAI lanzó ChatGPT, la primera vez que el público en general pudo probar esto. La gente se maravilló... y con justa razón.
Estos chatbots no chatean exactamente como un humano, pero a menudo parecen hacerlo. También pueden escribir trabajos finales, poesía y conversar sobre casi cualquier tema que se les presente.
¿Por qué se equivocan?
Porque aprenden del internet. Piensa sobre cuánta información errónea y otra basura hay en la web.
Estos sistemas tampoco repiten lo que está en internet palabra por palabra. Con base en lo que han aprendido, producen texto nuevo por su cuenta, en lo que los investigadores de inteligencia artificial llaman una “alucinación”.
Lea también: ChatGPT marca el inicio de una batalla sin precedentes entre Google y Microsoft
Es por esto que los chatbots pueden darte respuestas diferentes si haces la misma pregunta dos veces. Dirán cualquier cosa, ya sea que esté basada en la realidad o no.
Si los chatbots ‘alucinan’, ¿eso no significa que sienten?
A los investigadores de inteligencia artificial les encanta usar términos que hacen parecer humanos a estos sistemas. Sin embargo, alucinar solo es un término pegajoso para “inventan cosas”.
Eso suena espeluznante y peligroso, pero no significa que la tecnología esté de alguna manera viva o consciente de sus alrededores. Solo está generando texto utilizando patrones que encontró en internet. En muchos casos, mezcla y combina patrones en maneras sorprendentes y perturbadoras. No obstante, no está consciente de lo que está haciendo. No puede razonar como lo hacen los humanos.
¿Las compañías no pueden evitar que los chatbots actúen de modo extraño?
Lo están intentando.
Con ChatGPT, OpenAI intentó controlar el comportamiento de la tecnología. Cuando un grupo pequeño de personas probó en privado el sistema, OpenAI les pidió que calificaran sus respuestas. ¿Fueron útiles? ¿Fueron veraces? Luego, OpenAI empleó estas calificaciones para perfeccionar el sistema y definir con mayor cuidado lo que este haría y lo que no haría.
No obstante, tales técnicas no son perfectas. Científicos actuales no saben cómo construir sistemas que sean completamente veraces. Pueden limitar las imprecisiones y las respuestas raras, pero no pueden detenerlas. Una de las maneras de frenar los comportamientos extraños es mantener los chats breves.
No obstante, los chatbots seguirán diciendo cosas que no son ciertas. Además, mientras otras compañías comienzan a desplegar estos tipos de bots, no todas serán buenas para controlar lo que estos pueden y no pueden hacer.
La conclusión: no creas todo lo que un chatbot te diga.
Copyright - The New York Times
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
La semana pasada, Microsoft lanzó una versión nueva de su motor de búsqueda Bing y, a diferencia de un motor de búsqueda común, incluye un chatbot que puede responder a preguntas en una prosa clara y concisa.
Desde entonces, las personas han notado que parte de lo que el chatbot de Bing genera es impreciso, engañoso y francamente raro, lo que provoca temores de que se haya vuelto capaz de sentir o ser consciente del mundo que le rodea.
Ese no es el caso. Y, para entender por qué, es importante saber cómo funcionan en realidad los chatbots.
¿El chatbot está vivo?
No. Digamos eso de nuevo: ¡no!
En junio, un ingeniero de Google, Blake Lemoine, afirmó que una tecnología de chatbots similar que es evaluada dentro de Google podía sentir. Eso es falso. Los chatbots no están conscientes y no son inteligentes... al menos no de la manera en que los humanos son inteligentes.
Entonces, ¿por qué parece vivo?
Retrocedamos un poco. El chatbot de Bing es operado por un tipo de inteligencia artificial llamada red neuronal. Eso podría sonar como un cerebro computarizado, pero el término es engañoso.
Lea también: ChatGPT dispara ‘fiebre del oro’ por la inteligencia artificial
Una red neuronal es tan solo un sistema matemático que aprende habilidades al analizar cantidades vastas de datos digitales. A medida que una red neuronal examina, por ejemplo, miles de fotografías de gatos, puede aprender a reconocer a un gato.
La mayoría de las personas usan redes neuronales todos los días. Es la tecnología que identifica a personas, animales de compañía y otros objetos en imágenes publicadas en servicios de internet como Google Fotos. Les permite a Siri y Alexa, los asistentes de voz parlanchines de Apple y Amazon, reconocer las palabras que dices. Además, es lo que traduce entre inglés y español en servicios como Traductor de Google.
Las redes neuronales son muy buenas en imitar el modo en que los humanos usan el lenguaje y eso puede confundirnos hasta pensar que la tecnología es más poderosa de lo que en realidad es.
¿Cómo, con exactitud, las redes neuronales imitan el lenguaje humano?
Hace alrededor de cinco años, investigadores en compañías como Google y OpenAI, una empresa emergente con sede en San Francisco que hace poco lanzó el popular chatbot ChatGPT, comenzaron a crear redes neuronales que aprendían de cantidades enormes de texto digital, incluyendo libros, artículos de Wikipedia, registros de chats y todo tipo de otras cosas publicadas en internet.
Le puede interesar: ¿Una nueva era para el ciberdelito?: ChatGPT puede ser usado con fines maliciosos
Estas redes neuronales son conocidas como grandes modelos de lenguaje. Son capaces de usar esos montones de datos para armar lo que podrías llamar un mapa matemático de lenguaje humano. Al emplear este mapa, las redes neuronales pueden realizar muchas labores, como escribir sus propios tuits, redactar discursos, generar programas informáticos y, sí, tener una conversación.
Estos grandes modelos de lenguaje han probado ser útiles. Microsoft ofrece una herramienta, Copilot, que se construyó con un gran modelo de lenguaje y puede sugerir la siguiente línea de código conforme programadores de computadoras crean aplicaciones de software, en una manera muy parecida a como las herramientas de autocompletado sugieren la siguiente palabra cuando escribes mensajes de texto o correos electrónicos.
Otras compañías ofrecen tecnología similar que puede generar materiales de mercadotecnia, correos electrónicos y otros textos. Este tipo de tecnología también es conocida como inteligencia artificial generativa.
¿Ahora las compañías están lanzando versiones de esto con las que puedes chatear?
Exacto. En noviembre, OpenAI lanzó ChatGPT, la primera vez que el público en general pudo probar esto. La gente se maravilló... y con justa razón.
Estos chatbots no chatean exactamente como un humano, pero a menudo parecen hacerlo. También pueden escribir trabajos finales, poesía y conversar sobre casi cualquier tema que se les presente.
¿Por qué se equivocan?
Porque aprenden del internet. Piensa sobre cuánta información errónea y otra basura hay en la web.
Estos sistemas tampoco repiten lo que está en internet palabra por palabra. Con base en lo que han aprendido, producen texto nuevo por su cuenta, en lo que los investigadores de inteligencia artificial llaman una “alucinación”.
Lea también: ChatGPT marca el inicio de una batalla sin precedentes entre Google y Microsoft
Es por esto que los chatbots pueden darte respuestas diferentes si haces la misma pregunta dos veces. Dirán cualquier cosa, ya sea que esté basada en la realidad o no.
Si los chatbots ‘alucinan’, ¿eso no significa que sienten?
A los investigadores de inteligencia artificial les encanta usar términos que hacen parecer humanos a estos sistemas. Sin embargo, alucinar solo es un término pegajoso para “inventan cosas”.
Eso suena espeluznante y peligroso, pero no significa que la tecnología esté de alguna manera viva o consciente de sus alrededores. Solo está generando texto utilizando patrones que encontró en internet. En muchos casos, mezcla y combina patrones en maneras sorprendentes y perturbadoras. No obstante, no está consciente de lo que está haciendo. No puede razonar como lo hacen los humanos.
¿Las compañías no pueden evitar que los chatbots actúen de modo extraño?
Lo están intentando.
Con ChatGPT, OpenAI intentó controlar el comportamiento de la tecnología. Cuando un grupo pequeño de personas probó en privado el sistema, OpenAI les pidió que calificaran sus respuestas. ¿Fueron útiles? ¿Fueron veraces? Luego, OpenAI empleó estas calificaciones para perfeccionar el sistema y definir con mayor cuidado lo que este haría y lo que no haría.
No obstante, tales técnicas no son perfectas. Científicos actuales no saben cómo construir sistemas que sean completamente veraces. Pueden limitar las imprecisiones y las respuestas raras, pero no pueden detenerlas. Una de las maneras de frenar los comportamientos extraños es mantener los chats breves.
No obstante, los chatbots seguirán diciendo cosas que no son ciertas. Además, mientras otras compañías comienzan a desplegar estos tipos de bots, no todas serán buenas para controlar lo que estos pueden y no pueden hacer.
La conclusión: no creas todo lo que un chatbot te diga.
Copyright - The New York Times
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.