Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Si una persona creara una cafetera dotada con inteligencia artificial y le asignara una tarea tan simple como “hacer el café”, la máquina, en cierto punto, podría defender a toda costa el objetivo para el que fue creada. Si, por ejemplo, alguien quisiera desconectarla, la cafetera podría entrar en pánico y preguntarse: “¿Qué hago para que no me apaguen si tengo que hacer el café? Tengo que tomar medidas para evitar que eso suceda”.
Esta situación plantea un problema. La cafetera, en vez de hacer la bebida, estaría buscando la forma de no ser desactivada, así que estaría incumpliendo con el objetivo para el que fue creada. De hecho, la máquina podría incluso asesinar a quien intente evitar que haga su café.
Así explica Stuart Russell, un reconocido científico y académico de la Universidad de California, lo que a su juicio es el problema actual de la inteligencia artificial. Y es que después de la pólvora y las armas nucleares, la inteligencia artificial ha sido descrita como la tercera revolución en la guerra, industrializándola y adquiriendo una escala, velocidad y precisión nunca vistas.
(Le puede interesar: La carrera por la industria de la inteligencia artificial)
Robots asesinos, capaces de disparar las 24 horas del día de manera indiscriminada: es uno de los escenarios que han dejado de pertenecer exclusivamente a las películas y series de ciencia ficción y se ha convertido en una preocupación recurrente de los diarios más importantes del mundo y de organismos internacionales como la ONU o la Convención de ciertas Armas Convencionales, con sede en Ginebra. ¿Qué tan real es el problema y qué tan cerca estamos de llegar a él?
Para Russell, pionero en esta tecnología, tal escenario es una posibilidad cercana, pero no es el problema central. Durante años, el científico ha buscado la forma de rediseñar este tipo de tecnología para garantizar que las máquinas piensen en el hombre y en sus verdaderos objetivos, sin dejar de lado las amenazas que lo rodean. En 2015 lideró la publicación de una carta abierta, firmada por más de 3.700 investigadores y expertos de todo el mundo, en la que advierten de los peligros de la inteligencia artificial en futuras armas autónomas.
El problema de la alineación de los valores
Los resultados de sus estudios aseguran que el dilema que hoy se afronta no es evitar la dominación por parte de robots a los humanos, sino el bautizado “problema de la alineación de los valores”; es decir, programar un objetivo en una máquina, aparentemente correcto, que al final termina siendo falso, como el ejemplo de la cafetera.
En algunos años, sin embargo, las cosas podrían cambiar cuando se dé el salto de un objeto tan normal como un electrodoméstico con inteligencia artificial a un dron armado, un soldado capaz de remplazar al humano en una guerra, o un software capaz de influir en campañas políticas.
Esta nueva generación de industria bélica tiene un defecto que viene directamente desde su ADN y que podría tener repercusiones fatales: el algoritmo, un comando matemático con el que se programa la máquina y que no refleja justicia e imparcialidad, porque es una creación humana.
Cathy O’Neil, doctora en matemáticas de la Universidad de Harvard, asegura que en este tipo de creaciones es normal que haya fallas. “Siempre habrá errores porque los modelos son, por naturaleza, simplificaciones”, dice la profesora. De hecho, cada simplificación puede crear desbalances, que, en un algoritmo, pueden pasar desapercibidos o ser imposibles de solucionar. La teoría aplicada a las armas, por lo tanto, podría salirse de control en cualquier momento.
La ONU define como arma autónoma una herramienta capaz de “localizar, seleccionar y eliminar objetivos humanos sin intervención humana”. Y es que, según expertos, en un futuro próximo en un solo camión cabrán un millón de armas letales, capaces de asesinar personas en pueblos, ciudades e incluso en edificios, sin producir los desastres que dejarían las bombas o los misiles.
(Puede leer: Entre lo útil y lo invasivo: la inteligencia artificial llega a las cámaras)
Sobre este problema, el profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur, en Sydney (Australia), Toby Walsh, considera que la clave estará en cómo utilicen la tecnología los seres humanos. En entrevista con El Espectador, Walsh afirmó que la inteligencia artificial le dará a la humanidad tecnologías que pueden mejorar nuestras vidas, pero igualmente permitirá a los gobiernos y otros librar un tipo de guerra mucho más terrible y aterradora.
“El uso de la IA en la guerra por gobiernos nos concierne a mí y a miles de mis colegas. Un riesgo es que armas inteligentes y autónomas caigan en manos de terroristas y Estados delincuentes que las usarán de maneras horribles”, asegura el académico.
Las armas que veremos
Es importante precisar que las armas controladas de forma remota, como los drones o misiles, se han usado en la guerra desde hace ya algún tiempo, en parte porque hace más fácil la tarea realizar las operaciones sin la necesidad de exponer vidas humanas. Se estima que desde 2013 los Estados Unidos ya tenían más de 300 drones volando por todo el planeta y solo en la era Obama estos asesinaron a unas 116 personas sospechosas de ser terroristas.
La gran diferencia con estas nuevas armas, sin embargo, es en que ya no habrá un humano controlando la máquina. En los próximos años cada arma tendrá la capacidad de decidir autónomamente a quién matar: uno de los grandes dilemas éticos de la inteligencia artificial aplicada a la guerra.
En la próxima revolución de la guerra posiblemente se vean máquinas capaces de acceder a enormes bases de datos, como documentos de inteligencia militar, informes gubernamentales, información personal de nuestras redes sociales, hashtags, reconocimiento facial, acceso a álbumes familiares, registros médicos o simples ‘likes’, para determinar cuál es objetivo por destruir.
Jeremiah Collins, estudiante graduado de Ciencia Nuclear del MIT, explicó a este diario que, por ejemplo, los drones se podrán usar para aumentar la efectividad de las fuerzas de tierra explorando una región antes de que ingresen las tropas terrestres. Esto, de acuerdo con Collins, podría ayudar a que el campo de batalla sea más seguro para los soldados. “Los drones podrían estar directamente armados para llevar a cabo ataques dirigidos de forma autónoma mucho más rápida y eficiente que los soldados humanos”, explica Collins.
Pero las armas inteligentes van más allá de los drones. O eso al menos es lo que plantea el profesor Toby Walsh, quien explica que existirá otro tipo de armas inteligentes. “Veremos submarinos autónomos que pueden navegar a través de los océanos y permanecer en el mar durante años, tanques autónomos que nunca duermen y que luchan tanto en la oscuridad como en el día”, cuenta.
El profesor de Ciencia Política y Relaciones Internacionales de la Universidad de los Andes, Víctor Mijares, asegura que otra línea serán los sistemas inteligentes para “infiltrar sistemas informáticos de otros Estados, empresas o industrias nacionales críticos para la sociedad. Se podría, por ejemplo, dejar sin luz una ciudad entera”.
¿Una carrera armamentista?
Collins, quien cursa una especialización en desarmamiento y armas nucleares, aseguró que, paralelo a al proceso de creación de armas nucleares, está la carrera de las potencias por obtener el arma inteligente más completa. “Esto ocurre especialmente entre Estados Unidos y China, y este último aspira a convertirse en la potencia mundial de IA para el 2030. Sin duda, China estará interesada en posibles aplicaciones militares con IA, y se espera que los Estados Unidos respondan desarrollando armas propias más avanzadas”.
Mijares, pese a que no ve una carrera armamentista de armas convencionales, sí cree que hay una disputa por aplicar lo antes posible la inteligencia artificial en las armas. “Francia, por ejemplo, ya detectó que el tema puede ir por ahí; por eso Macron creó fondos para investigación en esta área. Estados Unidos también ha venido trabajando en la misma materia, por medio de empresas privadas. China también informó que está interesado en formar parte de esta carrera de la inteligencia artificial y Alemania, naturalmente”.
Cuando el jurista Friedrich Martens declaró ante la Conferencia de Paz de la Haya, en 1899, que “las poblaciones permanecen bajo la garantía y el régimen de las leyes de la humanidad y de las exigencias de la conciencia pública”, nadie se imaginó que unos años más tarde se retomaría la reconocida cláusula del derecho internacional dentro del debate de las armas autónomas por una posible capacidad de decidir si dejar vivir o no a una persona. Por este motivo, el tema ha entrado en las agendas de organizaciones y gobiernos de todo el mundo.
Para el profesor y robotista Ronald Arkin, el uso de estas armas podría ser necesario. “Si la humanidad insiste en una guerra, debemos proteger a los inocentes no combatientes en el espacio de batalla mucho mejor de lo que lo hacemos actualmente. La tecnología puede y debe usarse para ese fin”, aseguró en The German Times.
Gobiernos como el de Japón o Alemania han asegurado públicamente que no pretenden desarrollar este tipo de armamento. Alemania ha declarado que "no acepta que la decisión sobre la vida y la muerte se tome únicamente por un sistema autónomo, “mientras que Japón” no tiene planes para desarrollar robots que puedan ser capaces de cometer asesinatos”.
En un artículo de Russell, publicado en The German Times en febrero de este año, se citan las palabras de Barack Obama sobre esta revolución de la guerra. “Reconozco que el desarrollo de armas letales autónomas plantea dudas sobre el cumplimiento de las normas legales existentes. Si eso llega a lograrse, puede que no se resuelva por sí solo y que tengamos que lidiar con preguntas morales sobre en qué medida los algoritmos de la computadora deberían poder tomar una vida humana”.
A su juicio, darle la potestad a un robot de matar a un humano programándolo con un algoritmo es, sin lugar a duda, una responsabilidad enorme. La inteligencia artificial es un campo todavía con mucho por conocer, pero el momento en el que las máquinas puedan aprender de los humanos para actuar está en un futuro próximo. Lo que pasa es que podrán aprender tanto lo bueno como lo malo, incluyendo los defectos y los vicios, por lo que será importante lograr que le aporten a la sociedad. Será, posiblemente, un proceso para conocernos a nosotros mismos.
Russell asegura: “Estoy tratando de cambiar la definición de inteligencia artificial para que tengamos máquinas garantizadas de que serán beneficiosas para el humano. Sus principios las llevarán a ser altruistas en su esencia, a cumplir exclusivamente con nuestros objetivos. Algunos de estos serán inciertos para ellos, por lo que tendrán que mirarnos para aprender. Y espero que en el proceso podamos aprender a ser mejores personas”.