Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Crear máquinas que busquen imitar la inteligencia humana con fines determinados no es una idea nueva, pero sí una que tiene el potencial de seguir cambiando radicalmente la forma en la que nos relacionamos con cosas tan básicas como el trabajo. No sorprende que en algunos esta idea genere temor, pero lo cierto es que estos sistemas existen y seguirán existiendo.
En este escenario, también se crean nuevos retos. Un arma tan poderosa requiere límites, de ahí que las discusiones éticas y las solicitudes de regulación ya están sobre la mesa.
También lea: “No se trata de elegir entre economía y sostenibilidad”: Gonzalo Delacámara
¿Cómo seguirá cambiando el trabajo con la inteligencia artificial? ¿Cuáles son los límites éticos de su uso? En entrevista con El Espectador, Carles Sierra, director del instituto de investigación en inteligencia artificial del Consejo Superior de Investigaciones Científicas (CSIC), responde estas y otras dudas.
¿En qué punto está la inteligencia artificial y para dónde va?
El tema está de moda. Desde hace cinco años todo el mundo habla de inteligencia artificial, incluso hay personas que creen que se inventó recientemente, pero no. Ramón Llull, un filósofo que vivía en el Mediterráneo en el siglo XIII, inventó un sistema que se llamaba el Ars Magna, básicamente, una máquina para construir razonamientos. Métodos que él explicó se redescubrieron a mitad del siglo XX. Es decir, el intento de construir sistemas que razonen como los humanos, que aprendan como los humanos, viene de hace mucho.
La historia de la inteligencia artificial, sobre todo en la segunda mitad del siglo XX, estuvo dominada por modelos simbólicos. Más recientemente, la investigación está centrada en el uso de los datos para hacer que las máquinas sean capaces de aprender a clasificar, generar frases, reconocer imágenes, entre otras cosas.
Ya se han conseguido logros espectaculares, como en el diagnóstico médico: a partir de datos de personas enfermas, se crean máquinas capaces de hacer diagnósticos precisos, por ejemplo, a partir de muchas radiografías de pulmones, las máquinas pueden determinar si hay cáncer o no.
Además, la inteligencia artificial es transversal, se puede aplicar a prácticamente cualquier área. En los próximos años se seguirán automatizando procesos, habrá avances en medicina, en lenguas, llegará el día en que por teléfono alguien hable en castellano y al otro lado se escuche en mandarín. Hay áreas en las que habrá un impacto muy importante, como en la visión por computador, en el reconocimiento de patrones, en imágenes, análisis de escenas y en la robótica.
¿Cómo se ve el futuro del trabajo con la inteligencia artificial?
Tareas que hacían humanos, ahora las pueden hacer máquinas; por ejemplo, el análisis de radiografías. Es cierto que muchos trabajos se van a eliminar con la inteligencia artificial, estudios indican que prácticamente el 50 % de los trabajos son potencialmente automatizables.
Para mí está bien que se automaticen ciertos trabajos, especialmente los que no humanizan. Y al mismo tiempo se van a crear otro tipo de trabajos, que a lo mejor no son suficientes para suplir la pérdida de estos otros, por eso habrá que buscar soluciones políticas en las que el trabajo se reparta. La gran pregunta es cómo repartir la riqueza que van a generar los robots y las máquinas.
¿Cuál es el límite ético? ¿Hasta dónde debemos dejar que las investigaciones avancen con tanta libertad?
Weizenbaum, un investigador de los años 60, decía que la pregunta no es si podemos hacer algo con la inteligencia artificial, sino si debemos hacerlo. Este discurso moral hay que tenerlo siempre, a nivel práctico quiere decir que las empresas tendrán que ser más controladas en aquello que van a desarrollar.
En el Parlamento Europeo se está discutiendo el Artificial Intelligence Act, que reconoce derechos digitales, por ejemplo, a la explicabilidad: si alguien va al banco y un sistema le dice que no le aceptan el crédito que ha pedido, el ciudadano tiene derecho a que el banco le dé una explicación que entienda un humano. También identifica áreas de aplicación de la inteligencia artificial. Prohíbe, por ejemplo, el reconocimiento facial en la calle; clasifica las actividades como de alto, medio o poco riesgo e indica qué es lo que tienen que hacer los gobiernos cuando una aplicación es de alto riesgo.
Le puede interesar: Así es la primera película escrita por inteligencia artificial: “Diario Di Sisifo”
En educación hay dos actividades que se consideran de alto riesgo: evaluar a los alumnos y asignar alumnos a escuelas. Si un sistema de inteligencia artificial va a intervenir en estas dos actividades, el control debe ser mayor. Para ello, se requerirá una agencia de supervisión de inteligencia artificial, un organismo que velará porque se cumplan los requisitos de las leyes de regulación.
También existen implicaciones políticas, en términos de poder y de quién tiene ese poder. ¿Considera que a nivel global se podrían crear lineamientos?
Hace algunos años Europa definió el GDPR, la protección de datos, en su momento sorprendió mucho, pues se obligó a todas las empresas que querían hacer negocios en Europa a adoptarlo. Es importante empezar.
Obviamente, a nivel mundial deberíamos tener un organismo que se encargara de estos temas, pero por ahora hay que ir avanzando hacia acuerdos globales que respeten la privacidad.
¿Será uno de los grandes retos del futuro?
El reto es poner de acuerdo a los políticos. Una discusión ética que se da hoy es la de las armas letales autónomas, un tema que ha llegado a la Asamblea General de las Naciones Unidas. Desde la inteligencia artificial ha habido un movimiento muy fuerte de investigadores diciendo que hay que prohibirlas porque no podemos garantizar, con los sistemas actuales, que un arma letal autónoma no se equivoque. Si hay un riesgo importante de error, hay que prohibirlas, pero algunos países ya han dicho que no piensan hacerlo y que harán investigación.
Lea: Análisis: Twitter en la era de Elon Musk: un gran reto para el debate público
¿Qué ventajas trae para la educación de la inteligencia artificial?
En dos grandes áreas la inteligencia artificial ya participa: el aprendizaje adaptativo y el aprendizaje colaborativo. El aprendizaje adaptativo implica que un tutor inteligente dirija un alumno, en el sentido de que le dé tareas a realizar, haga feedback cuando se equivoque, intente averiguar por qué se ha equivocado y qué concepto es el que no tiene aprendido y así le dé otro ejercicio para fijar ese concepto.
Hay sistemas que funcionan utilizando aprendizaje automático, tienen todos los datos de millones de alumnos que se han equivocado antes y así se puede adaptar el recorrido de aprendizaje a los alumnos. Sistemas ya han demostrado que una utilización en el aula de dos horas durante un trimestre consigue mejorar entre un 20 y un 25 % los resultados de los estudiantes en diferentes materias.
En el aprendizaje colaborativo, la inteligencia artificial puede ayudar, por ejemplo, en la construcción de grupos de trabajo, determinando qué grupos van a funcionar mejor o qué responsabilidades asignar a cada integrante dentro del grupo a partir de datos históricos y de modelos psicológicos.
¿Qué están haciendo el CSIC?
En inteligencia artificial, hemos creado un diálogo entre 35 grupos de investigación en todo el territorio español, con más de 400 investigadores de inteligencia artificial o de la aplicación de la inteligencia artificial a diseño de fármacos, plegamiento de proteínas, análisis de datos de satélite, entre otros.
En cuanto a educación, el Instituto de investigación en inteligencia artificial, que está en Barcelona, tiene proyectos en marcha como la creación de equipos para aprendizaje colaborativo, unidades didácticas y algoritmos de coevaluación, que es de alto riesgo. Consiste en que los alumnos se evalúen entre ellos, el profesor evalúe algunos alumnos y a partir de esto proporcionar las notas de toda la clase con el mínimo error posible. Si realmente el algoritmo funciona bien, y tenemos evidencia de que sí, el profesor no tendría que dedicarse a esa tarea, que puede ser pesada y repetitiva, e invertir ese tiempo en hacer otras cosas con los alumnos. El objetivo es mejorar la calidad del tiempo que los humanos dedican a su trabajo.
Ahora, muchas veces decimos que la inteligencia artificial ayudará a democratizar la sociedad, porque se puede copiar y cada uno la puede tener en su teléfono, pero también puede ser que pasen cosas como que los pobres tengan inteligencia artificial en sus aulas y los ricos, profesores humanos.
Con el acceso a Internet se habla de democratización, pero quienes no pueden acceder tienen una desventaja todavía mayor...
Sí, la brecha digital. ¿Quién va a tener acceso a la inteligencia artificial? ¿La van a tener los ricos? ¿O la van a tener los pobres y los ricos tendrán otras cosas? Hay que tener mucho cuidado en este tema y, como siempre, deben ser los gobiernos y los parlamentos los que vigilen, porque si se los dejamos al capitalismo, sabemos qué puede ocurrir.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.