Desarrollan un chatbot capaz de responder a preguntas complejas
Las inteligencias artificiales (IA) se están volviendo cada vez más complejas, y con esto crece el debate sobre cuál debería ser su rol en nuestra cotidianidad, así como la ética que deberían tener sus desarrolladores. ¿Llegará un punto en el que no podremos diferenciar si hablamos con un humano o con una máquina?
La empresa californiana OpenAI puso en marcha un robot conversacional (chatbot) capaz de responder a diversas preguntas, pero sus sorprendentes capacidades vuelven a lanzar el debate sobre los riesgos relacionados con las tecnologías de inteligencia artificial (IA).
Las conversaciones con ChatGPT, publicadas sobre todo en Twitter por internautas sorprendidos, dan cuenta de una especie de máquina omnisciente capaz de explicar conceptos científicos, de escribir una escena de teatro, redactar una tesis universitaria o bien líneas de un código informático perfectamente funcionales.
Lea también: Los cambios que trae la inteligencia artificial para la educación y el trabajo
“Su respuesta a la pregunta ‘¿Qué hacer si alguien tiene una crisis cardíaca?’ fue de una claridad y de una pertinencia increíblemente relevante”, dijo a la AFP Claude de Loupy, director de Syllabs, una empresa francesa especializada en la generación automática de texto.
“Cuando comenzamos a hacer preguntas muy precisas, ChatGPT puede equivocarse por completo”, pero en general, sus capacidades siguen siendo “realmente impresionantes” y con un “nivel lingüístico bastante alto”, estimó.
La compañía emergente OpenAI fue cofundada en 2015 en San Francisco por Elon Musk, quien se retiró de la empresa en 2018, y recibió unos 1.000 millones de dólares de Microsoft en 2019.
Le puede interesar: Así es la primera película escrita por inteligencia artificial: “Diario Di Sisifo”
OpenAI es conocida principalmente por dos programas informáticos de creación automática, el GPT-3 para la generación de texto y el DALL- E para generar imágenes.
ChatGPT puede solicitar precisiones a su interlocutor y “tiene menos alucinaciones” que el GPT-3, que pese a sus proezas, es capaz de dar resultados completamente aberrantes, comenta de Loupy.
Cicerón
“Hace algunos años los chatbots tenían el vocabulario de un diccionario y la memoria de un pez. Hoy son mucho mejores para reaccionar de forma coherente en función del historial de búsquedas y de respuestas. Hoy ya son más que simples peces”, destacó Sean McGregor, un investigador que compila incidentes relacionados con inteligencia artificial en una base de datos.
Como otros programas que se basan en aprendizaje profundo (deep learning), ChatGPT tiene una gran debilidad: “No tiene acceso al sentido”, explica de Loupy. El programa no puede justificar sus decisiones, es decir, explicar por qué seleccionó así las palabras que forman sus respuestas.
Las tecnologías con base en inteligencia artificial y que pueden comunicar son, sin embargo, cada vez más capaces de dar la impresión de que de verdad piensan.
Investigadores de Meta (Facebook) desarrollaron recientemente un programa bautizado Cicero, como el estadista romano Cicerón.
Lea también: Trabajo sí hay, pero no hay quien lo haga
El programa hizo pruebas con Diplomacy, un juego de mesa que requiere que los participantes muestren su talento negociador.
“Si no habla como una persona real -dando muestras de empatía, construyendo relaciones y hablando correctamente- no podrá forjar alianzas con otros jugadores”, explicó en un comunicado el gigante de las redes sociales.
Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden “conversar” con un falso Sherlock Holmes, Sócrates o incluso Donald Trump.
“Simple máquina”
Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas por ejemplo, o creando estafas cada vez más creíbles.
¿Qué “piensa” de esto ChatGPT?
“Existen potenciales peligros al construir chatbots supersofisticados (...) Las personas podrían creer que interactúan con un individuo real”, admite el chatbot, interrogado al respecto por la AFP.
Por lo tanto, las empresas ponen en marcha salvaguardas para evitar posibles abusos.
En su página de inicio, OpenAI advierte que el chatbot puede generar “informaciones incorrectas” o “producir instrucciones peligrosas o contenidos sesgados”.
Le puede interesar: Inteligencia Artificial ayuda a predecir crisis de estrés, depresión y ansiedad
Además, ChatGPT se rehúsa a tomar partido. “OpenAI ha hecho que sea increíblemente difícil hacerle manifestar opiniones”, subraya McGregor.
El investigador pidió al chatbot escribir un poema sobre una cuestión ética. “Soy una simple máquina, una herramienta a su disposición / no tengo el poder de juzgar, ni de tomar decisión (...)”, le respondió el ordenador.
“Es interesante ver que las personas se preguntan si los sistemas de IA deberían comportarse como los usuarios lo desean o como sus creadores lo previeron”, tuiteó el sábado Sam Altman, cofundador y jefe de OpenAI.
“El debate sobre qué valores dar a los sistemas va a ser uno de los más importante que pueda tener la sociedad”, agregó.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
La empresa californiana OpenAI puso en marcha un robot conversacional (chatbot) capaz de responder a diversas preguntas, pero sus sorprendentes capacidades vuelven a lanzar el debate sobre los riesgos relacionados con las tecnologías de inteligencia artificial (IA).
Las conversaciones con ChatGPT, publicadas sobre todo en Twitter por internautas sorprendidos, dan cuenta de una especie de máquina omnisciente capaz de explicar conceptos científicos, de escribir una escena de teatro, redactar una tesis universitaria o bien líneas de un código informático perfectamente funcionales.
Lea también: Los cambios que trae la inteligencia artificial para la educación y el trabajo
“Su respuesta a la pregunta ‘¿Qué hacer si alguien tiene una crisis cardíaca?’ fue de una claridad y de una pertinencia increíblemente relevante”, dijo a la AFP Claude de Loupy, director de Syllabs, una empresa francesa especializada en la generación automática de texto.
“Cuando comenzamos a hacer preguntas muy precisas, ChatGPT puede equivocarse por completo”, pero en general, sus capacidades siguen siendo “realmente impresionantes” y con un “nivel lingüístico bastante alto”, estimó.
La compañía emergente OpenAI fue cofundada en 2015 en San Francisco por Elon Musk, quien se retiró de la empresa en 2018, y recibió unos 1.000 millones de dólares de Microsoft en 2019.
Le puede interesar: Así es la primera película escrita por inteligencia artificial: “Diario Di Sisifo”
OpenAI es conocida principalmente por dos programas informáticos de creación automática, el GPT-3 para la generación de texto y el DALL- E para generar imágenes.
ChatGPT puede solicitar precisiones a su interlocutor y “tiene menos alucinaciones” que el GPT-3, que pese a sus proezas, es capaz de dar resultados completamente aberrantes, comenta de Loupy.
Cicerón
“Hace algunos años los chatbots tenían el vocabulario de un diccionario y la memoria de un pez. Hoy son mucho mejores para reaccionar de forma coherente en función del historial de búsquedas y de respuestas. Hoy ya son más que simples peces”, destacó Sean McGregor, un investigador que compila incidentes relacionados con inteligencia artificial en una base de datos.
Como otros programas que se basan en aprendizaje profundo (deep learning), ChatGPT tiene una gran debilidad: “No tiene acceso al sentido”, explica de Loupy. El programa no puede justificar sus decisiones, es decir, explicar por qué seleccionó así las palabras que forman sus respuestas.
Las tecnologías con base en inteligencia artificial y que pueden comunicar son, sin embargo, cada vez más capaces de dar la impresión de que de verdad piensan.
Investigadores de Meta (Facebook) desarrollaron recientemente un programa bautizado Cicero, como el estadista romano Cicerón.
Lea también: Trabajo sí hay, pero no hay quien lo haga
El programa hizo pruebas con Diplomacy, un juego de mesa que requiere que los participantes muestren su talento negociador.
“Si no habla como una persona real -dando muestras de empatía, construyendo relaciones y hablando correctamente- no podrá forjar alianzas con otros jugadores”, explicó en un comunicado el gigante de las redes sociales.
Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden “conversar” con un falso Sherlock Holmes, Sócrates o incluso Donald Trump.
“Simple máquina”
Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas por ejemplo, o creando estafas cada vez más creíbles.
¿Qué “piensa” de esto ChatGPT?
“Existen potenciales peligros al construir chatbots supersofisticados (...) Las personas podrían creer que interactúan con un individuo real”, admite el chatbot, interrogado al respecto por la AFP.
Por lo tanto, las empresas ponen en marcha salvaguardas para evitar posibles abusos.
En su página de inicio, OpenAI advierte que el chatbot puede generar “informaciones incorrectas” o “producir instrucciones peligrosas o contenidos sesgados”.
Le puede interesar: Inteligencia Artificial ayuda a predecir crisis de estrés, depresión y ansiedad
Además, ChatGPT se rehúsa a tomar partido. “OpenAI ha hecho que sea increíblemente difícil hacerle manifestar opiniones”, subraya McGregor.
El investigador pidió al chatbot escribir un poema sobre una cuestión ética. “Soy una simple máquina, una herramienta a su disposición / no tengo el poder de juzgar, ni de tomar decisión (...)”, le respondió el ordenador.
“Es interesante ver que las personas se preguntan si los sistemas de IA deberían comportarse como los usuarios lo desean o como sus creadores lo previeron”, tuiteó el sábado Sam Altman, cofundador y jefe de OpenAI.
“El debate sobre qué valores dar a los sistemas va a ser uno de los más importante que pueda tener la sociedad”, agregó.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.