Noticias

Últimas Noticias

    Política

    Judicial

      Economía

      Mundo

      Bogotá

        Entretenimiento

        Deportes

        Colombia

        El Magazín Cultural

        Salud

          Ambiente

          Investigación

            Educación

              Ciencia

                Género y Diversidad

                Tecnología

                Actualidad

                  Reportajes

                    Historias visuales

                      Colecciones

                        Podcast

                          Cromos

                          Vea

                          Opinión

                          Opinión

                            Editorial

                              Columnistas

                                Caricaturistas

                                  Lectores

                                  Blogs

                                    Suscriptores

                                    Suscriptores

                                      Beneficios

                                        Tus artículos guardados

                                          Somos El Espectador

                                            Estilo de vida

                                            La Red Zoocial

                                            Gastronomía y Recetas

                                              La Huerta

                                                Moda e Industria

                                                  Tarot de Mavé

                                                    Autos

                                                      Juegos

                                                        Pasatiempos

                                                          Horóscopo

                                                            Música

                                                              Turismo

                                                                Marcas EE

                                                                Colombia + 20

                                                                BIBO

                                                                  Responsabilidad Social

                                                                  Justicia Inclusiva

                                                                    Desaparecidos

                                                                      EE Play

                                                                      EE play

                                                                        En Vivo

                                                                          La Pulla

                                                                            Documentales

                                                                              Opinión

                                                                                Las igualadas

                                                                                  Redacción al Desnudo

                                                                                    Colombia +20

                                                                                      Destacados

                                                                                        BIBO

                                                                                          La Red Zoocial

                                                                                            ZonaZ

                                                                                              Centro de Ayuda

                                                                                                Newsletters
                                                                                                Servicios

                                                                                                Servicios

                                                                                                  Descuentos

                                                                                                    Idiomas

                                                                                                    EE ADS

                                                                                                      Cursos y programas

                                                                                                        Más

                                                                                                        Blogs

                                                                                                          Especiales

                                                                                                            Descarga la App

                                                                                                              Edición Impresa

                                                                                                                Suscripción

                                                                                                                  Eventos

                                                                                                                    Foros El Espectador

                                                                                                                      Pauta con nosotros en EE

                                                                                                                        Pauta con nosotros en Cromos

                                                                                                                          Pauta con nosotros en Vea

                                                                                                                            Avisos judiciales

                                                                                                                              Preguntas Frecuentes

                                                                                                                                Contenido Patrocinado
                                                                                                                                06 de agosto de 2018 - 09:00 p. m.

                                                                                                                                Armas inteligentes, ¿la próxima revolución de la guerra?

                                                                                                                                La Inteligencia Artificial (IA) ha comenzado a ser utilizada en la creación de armas con algoritmos cada vez más complicados y capaces de diferenciar a quién disparar y a quién no. El riesgo será cuando la máquina sea capaz de cambiar el objetivo para el cual fue creada.

                                                                                                                                Nicolás Marín Navas

                                                                                                                                La nueva generación de drones inteligentes podrían tener la capacidad de decidir a quién matar y a quién no de forma autónoma. / Getty Images
                                                                                                                                PUBLICIDAD

                                                                                                                                Si una persona creara una cafetera dotada con inteligencia artificial y le asignara una tarea tan simple como “hacer el café”, la máquina, en cierto punto, podría defender a toda costa el objetivo para el que fue creada. Si, por ejemplo, alguien quisiera desconectarla, la cafetera podría entrar en pánico y preguntarse: “¿Qué hago para que no me apaguen si tengo que hacer el café? Tengo que tomar medidas para evitar que eso suceda”.

                                                                                                                                Esta situación plantea un problema. La cafetera, en vez de hacer la bebida, estaría buscando la forma de no ser desactivada, así que estaría incumpliendo con el objetivo para el que fue creada. De hecho, la máquina podría incluso asesinar a quien intente evitar que haga su café.

                                                                                                                                PUBLICIDAD

                                                                                                                                Así explica Stuart Russell, un reconocido científico y académico de la Universidad de California, lo que a su juicio es el problema actual de la inteligencia artificial. Y es que después de la pólvora y las armas nucleares, la inteligencia artificial ha sido descrita como la tercera revolución en la guerra, industrializándola y adquiriendo una escala, velocidad y precisión nunca vistas.

                                                                                                                                Read more!

                                                                                                                                (Le puede interesar: La carrera por la industria de la inteligencia artificial)

                                                                                                                                Robots asesinos, capaces de disparar las 24 horas del día de manera indiscriminada: es uno de los escenarios que han dejado de pertenecer exclusivamente a las películas y series de ciencia ficción y se ha convertido en una preocupación recurrente de los diarios más importantes del mundo y de organismos internacionales como la ONU o la Convención de ciertas Armas Convencionales, con sede en Ginebra. ¿Qué tan real es el problema y qué tan cerca estamos de llegar a él?

                                                                                                                                Para Russell, pionero en esta tecnología, tal escenario es una posibilidad cercana, pero no es el problema central. Durante años, el científico ha buscado la forma de rediseñar este tipo de tecnología para garantizar que las máquinas piensen en el hombre y en sus verdaderos objetivos, sin dejar de lado las amenazas que lo rodean. En 2015 lideró la publicación de una carta abierta, firmada por más de 3.700 investigadores y expertos de todo el mundo, en la que advierten de los peligros de la inteligencia artificial en futuras armas autónomas.

                                                                                                                                El problema de la alineación de los valores

                                                                                                                                Los resultados de sus estudios aseguran que el dilema que hoy se afronta no es evitar la dominación por parte de robots a los humanos, sino el bautizado “problema de la alineación de los valores”; es decir, programar un objetivo en una máquina, aparentemente correcto, que al final termina siendo falso, como el ejemplo de la cafetera.

                                                                                                                                Read more!
                                                                                                                                PUBLICIDAD

                                                                                                                                En algunos años, sin embargo, las cosas podrían cambiar cuando se dé el salto de un objeto tan normal como un electrodoméstico con inteligencia artificial a un dron armado, un soldado capaz de remplazar al humano en una guerra, o un software capaz de influir en campañas políticas.

                                                                                                                                No ad for you

                                                                                                                                Esta nueva generación de industria bélica tiene un defecto que viene directamente desde su ADN y que podría tener repercusiones fatales: el algoritmo, un comando matemático con el que se programa la máquina y que no refleja justicia e imparcialidad, porque es una creación humana.

                                                                                                                                Cathy O’Neil, doctora en matemáticas de la Universidad de Harvard, asegura que en este tipo de creaciones es normal que haya fallas. “Siempre habrá errores porque los modelos son, por naturaleza, simplificaciones”, dice la profesora. De hecho, cada simplificación puede crear desbalances, que, en un algoritmo, pueden pasar desapercibidos o ser imposibles de solucionar. La teoría aplicada a las armas, por lo tanto, podría salirse de control en cualquier momento.

                                                                                                                                No ad for you

                                                                                                                                La ONU define como arma autónoma una herramienta capaz de “localizar, seleccionar y eliminar objetivos humanos sin intervención humana”. Y es que, según expertos, en un futuro próximo en un solo camión cabrán un millón de armas letales, capaces de asesinar personas en pueblos, ciudades e incluso en edificios, sin producir los desastres que dejarían las bombas o los misiles.

                                                                                                                                (Puede leer: Entre lo útil y lo invasivo: la inteligencia artificial llega a las cámaras)

                                                                                                                                No ad for you

                                                                                                                                Sobre este problema, el profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur, en Sydney (Australia), Toby Walsh, considera que la clave estará en cómo utilicen la tecnología los seres humanos. En entrevista con El Espectador, Walsh afirmó que la inteligencia artificial le dará a la humanidad tecnologías que pueden mejorar nuestras vidas, pero igualmente permitirá a los gobiernos y otros librar un tipo de guerra mucho más terrible y aterradora.

                                                                                                                                “El uso de la IA en la guerra por gobiernos nos concierne a mí y a miles de mis colegas. Un riesgo es que armas inteligentes y autónomas caigan en manos de terroristas y Estados delincuentes que las usarán de maneras horribles”, asegura el académico.

                                                                                                                                Las armas que veremos

                                                                                                                                No ad for you

                                                                                                                                Es importante precisar que las armas controladas de forma remota, como los drones o misiles, se han usado en la guerra desde hace ya algún tiempo, en parte porque hace más fácil la tarea realizar las operaciones sin la necesidad de exponer vidas humanas. Se estima que desde 2013 los Estados Unidos ya tenían más de 300 drones volando por todo el planeta y solo en la era Obama estos asesinaron a unas 116 personas sospechosas de ser terroristas.

                                                                                                                                La gran diferencia con estas nuevas armas, sin embargo, es en que ya no habrá un humano controlando la máquina. En los próximos años cada arma tendrá la capacidad de decidir autónomamente a quién matar: uno de los grandes dilemas éticos de la inteligencia artificial aplicada a la guerra.

                                                                                                                                No ad for you

                                                                                                                                En la próxima revolución de la guerra posiblemente se vean máquinas capaces de acceder a enormes bases de datos, como documentos de inteligencia militar, informes gubernamentales, información personal de nuestras redes sociales, hashtags, reconocimiento facial, acceso a álbumes familiares, registros médicos o simples ‘likes’, para determinar cuál es objetivo por destruir.

                                                                                                                                No ad for you

                                                                                                                                Jeremiah Collins, estudiante graduado de Ciencia Nuclear del MIT, explicó a este diario que, por ejemplo, los drones se podrán usar para aumentar la efectividad de las fuerzas de tierra explorando una región antes de que ingresen las tropas terrestres. Esto, de acuerdo con Collins, podría ayudar a que el campo de batalla sea más seguro para los soldados. “Los drones podrían estar directamente armados para llevar a cabo ataques dirigidos de forma autónoma mucho más rápida y eficiente que los soldados humanos”, explica Collins.

                                                                                                                                Pero las armas inteligentes van más allá de los drones. O eso al menos es lo que plantea el profesor Toby Walsh, quien explica que existirá otro tipo de armas inteligentes. “Veremos submarinos autónomos que pueden navegar a través de los océanos y permanecer en el mar durante años, tanques autónomos que nunca duermen y que luchan tanto en la oscuridad como en el día”, cuenta.

                                                                                                                                No ad for you

                                                                                                                                El profesor de Ciencia Política y Relaciones Internacionales de la Universidad de los Andes, Víctor Mijares, asegura que otra línea serán los sistemas inteligentes para “infiltrar sistemas informáticos de otros Estados, empresas o industrias nacionales críticos para la sociedad. Se podría, por ejemplo, dejar sin luz una ciudad entera”.

                                                                                                                                ¿Una carrera armamentista?

                                                                                                                                No ad for you

                                                                                                                                Collins, quien cursa una especialización en desarmamiento y armas nucleares, aseguró que, paralelo a al proceso de creación de armas nucleares, está la carrera de las potencias por obtener el arma inteligente más completa. “Esto ocurre especialmente entre Estados Unidos y China, y este último aspira a convertirse en la potencia mundial de IA para el 2030. Sin duda, China estará interesada en posibles aplicaciones militares con IA, y se espera que los Estados Unidos respondan desarrollando armas propias más avanzadas”.

                                                                                                                                No ad for you

                                                                                                                                Mijares, pese a que no ve una carrera armamentista de armas convencionales, sí cree que hay una disputa por aplicar lo antes posible la inteligencia artificial en las armas. “Francia, por ejemplo, ya detectó que el tema puede ir por ahí; por eso Macron creó fondos para investigación en esta área. Estados Unidos también ha venido trabajando en la misma materia, por medio de empresas privadas. China también informó que está interesado en formar parte de esta carrera de la inteligencia artificial y Alemania, naturalmente”.

                                                                                                                                No ad for you

                                                                                                                                Cuando el jurista Friedrich Martens declaró ante la Conferencia de Paz de la Haya, en 1899, que “las poblaciones permanecen bajo la garantía y el régimen de las leyes de la humanidad y de las exigencias de la conciencia pública”, nadie se imaginó que unos años más tarde se retomaría la reconocida cláusula del derecho internacional dentro del debate de las armas autónomas por una posible capacidad de decidir si dejar vivir o no a una persona. Por este motivo, el tema ha entrado en las agendas de organizaciones y gobiernos de todo el mundo.

                                                                                                                                Para el profesor y robotista Ronald Arkin, el uso de estas armas podría ser necesario. “Si la humanidad insiste en una guerra, debemos proteger a los inocentes no combatientes en el espacio de batalla mucho mejor de lo que lo hacemos actualmente. La tecnología puede y debe usarse para ese fin”, aseguró en The German Times.

                                                                                                                                No ad for you

                                                                                                                                Gobiernos como el de Japón o Alemania han asegurado públicamente que no pretenden desarrollar este tipo de armamento. Alemania ha declarado que "no acepta que la decisión sobre la vida y la muerte se tome únicamente por un sistema autónomo, “mientras que Japón” no tiene planes para desarrollar robots que puedan ser capaces de cometer asesinatos”.

                                                                                                                                En un artículo de Russell, publicado en The German Times en febrero de este año, se citan las palabras de Barack Obama sobre esta revolución de la guerra. “Reconozco que el desarrollo de armas letales autónomas plantea dudas sobre el cumplimiento de las normas legales existentes. Si eso llega a lograrse, puede que no se resuelva por sí solo y que tengamos que lidiar con preguntas morales sobre en qué medida los algoritmos de la computadora deberían poder tomar una vida humana”.

                                                                                                                                No ad for you

                                                                                                                                A su juicio, darle la potestad a un robot de matar a un humano programándolo con un algoritmo es, sin lugar a duda, una responsabilidad enorme. La inteligencia artificial es un campo todavía con mucho por conocer, pero el momento en el que las máquinas puedan aprender de los humanos para actuar está en un futuro próximo. Lo que pasa es que podrán aprender tanto lo bueno como lo malo, incluyendo los defectos y los vicios, por lo que será importante lograr que le aporten a la sociedad. Será, posiblemente, un proceso para conocernos a nosotros mismos.

                                                                                                                                Russell asegura: “Estoy tratando de cambiar la definición de inteligencia artificial para que tengamos máquinas garantizadas de que serán beneficiosas para el humano. Sus principios las llevarán a ser altruistas en su esencia, a cumplir exclusivamente con nuestros objetivos. Algunos de estos serán inciertos para ellos, por lo que tendrán que mirarnos para aprender. Y espero que en el proceso podamos aprender a ser mejores personas”.

                                                                                                                                La nueva generación de drones inteligentes podrían tener la capacidad de decidir a quién matar y a quién no de forma autónoma. / Getty Images
                                                                                                                                PUBLICIDAD

                                                                                                                                Si una persona creara una cafetera dotada con inteligencia artificial y le asignara una tarea tan simple como “hacer el café”, la máquina, en cierto punto, podría defender a toda costa el objetivo para el que fue creada. Si, por ejemplo, alguien quisiera desconectarla, la cafetera podría entrar en pánico y preguntarse: “¿Qué hago para que no me apaguen si tengo que hacer el café? Tengo que tomar medidas para evitar que eso suceda”.

                                                                                                                                Esta situación plantea un problema. La cafetera, en vez de hacer la bebida, estaría buscando la forma de no ser desactivada, así que estaría incumpliendo con el objetivo para el que fue creada. De hecho, la máquina podría incluso asesinar a quien intente evitar que haga su café.

                                                                                                                                PUBLICIDAD

                                                                                                                                Así explica Stuart Russell, un reconocido científico y académico de la Universidad de California, lo que a su juicio es el problema actual de la inteligencia artificial. Y es que después de la pólvora y las armas nucleares, la inteligencia artificial ha sido descrita como la tercera revolución en la guerra, industrializándola y adquiriendo una escala, velocidad y precisión nunca vistas.

                                                                                                                                Read more!

                                                                                                                                (Le puede interesar: La carrera por la industria de la inteligencia artificial)

                                                                                                                                Robots asesinos, capaces de disparar las 24 horas del día de manera indiscriminada: es uno de los escenarios que han dejado de pertenecer exclusivamente a las películas y series de ciencia ficción y se ha convertido en una preocupación recurrente de los diarios más importantes del mundo y de organismos internacionales como la ONU o la Convención de ciertas Armas Convencionales, con sede en Ginebra. ¿Qué tan real es el problema y qué tan cerca estamos de llegar a él?

                                                                                                                                Para Russell, pionero en esta tecnología, tal escenario es una posibilidad cercana, pero no es el problema central. Durante años, el científico ha buscado la forma de rediseñar este tipo de tecnología para garantizar que las máquinas piensen en el hombre y en sus verdaderos objetivos, sin dejar de lado las amenazas que lo rodean. En 2015 lideró la publicación de una carta abierta, firmada por más de 3.700 investigadores y expertos de todo el mundo, en la que advierten de los peligros de la inteligencia artificial en futuras armas autónomas.

                                                                                                                                El problema de la alineación de los valores

                                                                                                                                Los resultados de sus estudios aseguran que el dilema que hoy se afronta no es evitar la dominación por parte de robots a los humanos, sino el bautizado “problema de la alineación de los valores”; es decir, programar un objetivo en una máquina, aparentemente correcto, que al final termina siendo falso, como el ejemplo de la cafetera.

                                                                                                                                Read more!
                                                                                                                                PUBLICIDAD

                                                                                                                                En algunos años, sin embargo, las cosas podrían cambiar cuando se dé el salto de un objeto tan normal como un electrodoméstico con inteligencia artificial a un dron armado, un soldado capaz de remplazar al humano en una guerra, o un software capaz de influir en campañas políticas.

                                                                                                                                No ad for you

                                                                                                                                Esta nueva generación de industria bélica tiene un defecto que viene directamente desde su ADN y que podría tener repercusiones fatales: el algoritmo, un comando matemático con el que se programa la máquina y que no refleja justicia e imparcialidad, porque es una creación humana.

                                                                                                                                Cathy O’Neil, doctora en matemáticas de la Universidad de Harvard, asegura que en este tipo de creaciones es normal que haya fallas. “Siempre habrá errores porque los modelos son, por naturaleza, simplificaciones”, dice la profesora. De hecho, cada simplificación puede crear desbalances, que, en un algoritmo, pueden pasar desapercibidos o ser imposibles de solucionar. La teoría aplicada a las armas, por lo tanto, podría salirse de control en cualquier momento.

                                                                                                                                No ad for you

                                                                                                                                La ONU define como arma autónoma una herramienta capaz de “localizar, seleccionar y eliminar objetivos humanos sin intervención humana”. Y es que, según expertos, en un futuro próximo en un solo camión cabrán un millón de armas letales, capaces de asesinar personas en pueblos, ciudades e incluso en edificios, sin producir los desastres que dejarían las bombas o los misiles.

                                                                                                                                (Puede leer: Entre lo útil y lo invasivo: la inteligencia artificial llega a las cámaras)

                                                                                                                                No ad for you

                                                                                                                                Sobre este problema, el profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur, en Sydney (Australia), Toby Walsh, considera que la clave estará en cómo utilicen la tecnología los seres humanos. En entrevista con El Espectador, Walsh afirmó que la inteligencia artificial le dará a la humanidad tecnologías que pueden mejorar nuestras vidas, pero igualmente permitirá a los gobiernos y otros librar un tipo de guerra mucho más terrible y aterradora.

                                                                                                                                “El uso de la IA en la guerra por gobiernos nos concierne a mí y a miles de mis colegas. Un riesgo es que armas inteligentes y autónomas caigan en manos de terroristas y Estados delincuentes que las usarán de maneras horribles”, asegura el académico.

                                                                                                                                Las armas que veremos

                                                                                                                                No ad for you

                                                                                                                                Es importante precisar que las armas controladas de forma remota, como los drones o misiles, se han usado en la guerra desde hace ya algún tiempo, en parte porque hace más fácil la tarea realizar las operaciones sin la necesidad de exponer vidas humanas. Se estima que desde 2013 los Estados Unidos ya tenían más de 300 drones volando por todo el planeta y solo en la era Obama estos asesinaron a unas 116 personas sospechosas de ser terroristas.

                                                                                                                                La gran diferencia con estas nuevas armas, sin embargo, es en que ya no habrá un humano controlando la máquina. En los próximos años cada arma tendrá la capacidad de decidir autónomamente a quién matar: uno de los grandes dilemas éticos de la inteligencia artificial aplicada a la guerra.

                                                                                                                                No ad for you

                                                                                                                                En la próxima revolución de la guerra posiblemente se vean máquinas capaces de acceder a enormes bases de datos, como documentos de inteligencia militar, informes gubernamentales, información personal de nuestras redes sociales, hashtags, reconocimiento facial, acceso a álbumes familiares, registros médicos o simples ‘likes’, para determinar cuál es objetivo por destruir.

                                                                                                                                No ad for you

                                                                                                                                Jeremiah Collins, estudiante graduado de Ciencia Nuclear del MIT, explicó a este diario que, por ejemplo, los drones se podrán usar para aumentar la efectividad de las fuerzas de tierra explorando una región antes de que ingresen las tropas terrestres. Esto, de acuerdo con Collins, podría ayudar a que el campo de batalla sea más seguro para los soldados. “Los drones podrían estar directamente armados para llevar a cabo ataques dirigidos de forma autónoma mucho más rápida y eficiente que los soldados humanos”, explica Collins.

                                                                                                                                Pero las armas inteligentes van más allá de los drones. O eso al menos es lo que plantea el profesor Toby Walsh, quien explica que existirá otro tipo de armas inteligentes. “Veremos submarinos autónomos que pueden navegar a través de los océanos y permanecer en el mar durante años, tanques autónomos que nunca duermen y que luchan tanto en la oscuridad como en el día”, cuenta.

                                                                                                                                No ad for you

                                                                                                                                El profesor de Ciencia Política y Relaciones Internacionales de la Universidad de los Andes, Víctor Mijares, asegura que otra línea serán los sistemas inteligentes para “infiltrar sistemas informáticos de otros Estados, empresas o industrias nacionales críticos para la sociedad. Se podría, por ejemplo, dejar sin luz una ciudad entera”.

                                                                                                                                ¿Una carrera armamentista?

                                                                                                                                No ad for you

                                                                                                                                Collins, quien cursa una especialización en desarmamiento y armas nucleares, aseguró que, paralelo a al proceso de creación de armas nucleares, está la carrera de las potencias por obtener el arma inteligente más completa. “Esto ocurre especialmente entre Estados Unidos y China, y este último aspira a convertirse en la potencia mundial de IA para el 2030. Sin duda, China estará interesada en posibles aplicaciones militares con IA, y se espera que los Estados Unidos respondan desarrollando armas propias más avanzadas”.

                                                                                                                                No ad for you

                                                                                                                                Mijares, pese a que no ve una carrera armamentista de armas convencionales, sí cree que hay una disputa por aplicar lo antes posible la inteligencia artificial en las armas. “Francia, por ejemplo, ya detectó que el tema puede ir por ahí; por eso Macron creó fondos para investigación en esta área. Estados Unidos también ha venido trabajando en la misma materia, por medio de empresas privadas. China también informó que está interesado en formar parte de esta carrera de la inteligencia artificial y Alemania, naturalmente”.

                                                                                                                                No ad for you

                                                                                                                                Cuando el jurista Friedrich Martens declaró ante la Conferencia de Paz de la Haya, en 1899, que “las poblaciones permanecen bajo la garantía y el régimen de las leyes de la humanidad y de las exigencias de la conciencia pública”, nadie se imaginó que unos años más tarde se retomaría la reconocida cláusula del derecho internacional dentro del debate de las armas autónomas por una posible capacidad de decidir si dejar vivir o no a una persona. Por este motivo, el tema ha entrado en las agendas de organizaciones y gobiernos de todo el mundo.

                                                                                                                                Para el profesor y robotista Ronald Arkin, el uso de estas armas podría ser necesario. “Si la humanidad insiste en una guerra, debemos proteger a los inocentes no combatientes en el espacio de batalla mucho mejor de lo que lo hacemos actualmente. La tecnología puede y debe usarse para ese fin”, aseguró en The German Times.

                                                                                                                                No ad for you

                                                                                                                                Gobiernos como el de Japón o Alemania han asegurado públicamente que no pretenden desarrollar este tipo de armamento. Alemania ha declarado que "no acepta que la decisión sobre la vida y la muerte se tome únicamente por un sistema autónomo, “mientras que Japón” no tiene planes para desarrollar robots que puedan ser capaces de cometer asesinatos”.

                                                                                                                                En un artículo de Russell, publicado en The German Times en febrero de este año, se citan las palabras de Barack Obama sobre esta revolución de la guerra. “Reconozco que el desarrollo de armas letales autónomas plantea dudas sobre el cumplimiento de las normas legales existentes. Si eso llega a lograrse, puede que no se resuelva por sí solo y que tengamos que lidiar con preguntas morales sobre en qué medida los algoritmos de la computadora deberían poder tomar una vida humana”.

                                                                                                                                No ad for you

                                                                                                                                A su juicio, darle la potestad a un robot de matar a un humano programándolo con un algoritmo es, sin lugar a duda, una responsabilidad enorme. La inteligencia artificial es un campo todavía con mucho por conocer, pero el momento en el que las máquinas puedan aprender de los humanos para actuar está en un futuro próximo. Lo que pasa es que podrán aprender tanto lo bueno como lo malo, incluyendo los defectos y los vicios, por lo que será importante lograr que le aporten a la sociedad. Será, posiblemente, un proceso para conocernos a nosotros mismos.

                                                                                                                                Russell asegura: “Estoy tratando de cambiar la definición de inteligencia artificial para que tengamos máquinas garantizadas de que serán beneficiosas para el humano. Sus principios las llevarán a ser altruistas en su esencia, a cumplir exclusivamente con nuestros objetivos. Algunos de estos serán inciertos para ellos, por lo que tendrán que mirarnos para aprender. Y espero que en el proceso podamos aprender a ser mejores personas”.

                                                                                                                                Por Nicolás Marín Navas

                                                                                                                                Ver todas las noticias
                                                                                                                                Read more!
                                                                                                                                Read more!
                                                                                                                                Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
                                                                                                                                Aceptar