Noticias

Últimas Noticias

    Política

    Judicial

      Economía

      Mundo

      Bogotá

        Entretenimiento

        Deportes

        Colombia

        El Magazín Cultural

        Salud

          Ambiente

          Investigación

            Educación

              Ciencia

                Género y Diversidad

                Tecnología

                Actualidad

                  Reportajes

                    Historias visuales

                      Colecciones

                        Podcast

                          Cromos

                          Vea

                          Opinión

                          Opinión

                            Editorial

                              Columnistas

                                Caricaturistas

                                  Lectores

                                  Blogs

                                    Suscriptores

                                    Suscriptores

                                      Beneficios

                                        Tus artículos guardados

                                          Somos El Espectador

                                            Estilo de vida

                                            La Red Zoocial

                                            Gastronomía y Recetas

                                              La Huerta

                                                Moda e Industria

                                                  Tarot de Mavé

                                                    Autos

                                                      Juegos

                                                        Pasatiempos

                                                          Horóscopo

                                                            Música

                                                              Turismo

                                                                Marcas EE

                                                                Colombia + 20

                                                                BIBO

                                                                  Responsabilidad Social

                                                                  Justicia Inclusiva

                                                                    Desaparecidos

                                                                      EE Play

                                                                      EE play

                                                                        En Vivo

                                                                          La Pulla

                                                                            Documentales

                                                                              Opinión

                                                                                Las igualadas

                                                                                  Redacción al Desnudo

                                                                                    Colombia +20

                                                                                      Destacados

                                                                                        BIBO

                                                                                          La Red Zoocial

                                                                                            ZonaZ

                                                                                              Centro de Ayuda

                                                                                                Newsletters
                                                                                                Servicios

                                                                                                Servicios

                                                                                                  Empleos

                                                                                                    Descuentos

                                                                                                      Idiomas

                                                                                                      EE ADS

                                                                                                        Cursos y programas

                                                                                                          Más

                                                                                                          Blogs

                                                                                                            Especiales

                                                                                                              Descarga la App

                                                                                                                Edición Impresa

                                                                                                                  Suscripción

                                                                                                                    Eventos

                                                                                                                      Pauta con nosotros en EE

                                                                                                                        Pauta con nosotros en Cromos

                                                                                                                          Pauta con nosotros en Vea

                                                                                                                            Avisos judiciales

                                                                                                                              Preguntas Frecuentes

                                                                                                                                Contenido Patrocinado
                                                                                                                                05 de noviembre de 2023 - 02:00 p. m.

                                                                                                                                Inteligencia artificial: a regular, a regular, que el mundo se va a acabar

                                                                                                                                La inteligencia artificial está llamada a ser uno de los próximos motores del crecimiento económico. Pero, además de sus posibles bondades económicas, también esconde una serie de peligros y amenazas para temas como el mercado laboral y los derechos humanos.

                                                                                                                                Santiago La Rotta

                                                                                                                                Editor Economía - Tecnología
                                                                                                                                Imagen de referencia.
                                                                                                                                Foto: Getty Images - Getty Images

                                                                                                                                A principios de los años 60, el psicólogo Stanley Milgram diseñó una serie de experimentos en los que un grupo de voluntarios debían administrar electrochoques a una persona cada vez que esta cometiera un error.

                                                                                                                                Gracias por ser nuestro usuario. Apreciado lector, te invitamos a suscribirte a uno de nuestros planes para continuar disfrutando de este contenido exclusivo.El Espectador, el valor de la información.

                                                                                                                                Imagen de referencia.
                                                                                                                                Foto: Getty Images - Getty Images

                                                                                                                                A principios de los años 60, el psicólogo Stanley Milgram diseñó una serie de experimentos en los que un grupo de voluntarios debían administrar electrochoques a una persona cada vez que esta cometiera un error.

                                                                                                                                Los voluntarios terminaron por administrar cantidades peligrosas de electricidad a esta persona y cada vez que mostraban dudas, el científico les aseguraba que todo estaba bien, que era seguro continuar con las descargas.

                                                                                                                                Lea también: Precio del galón de gasolina en noviembre supera los $14.564

                                                                                                                                De fondo, no había electricidad involucrada y la persona que recibía la supuesta electricidad era un actor contratado para este fin. La idea del experimento era probar la respuesta de la gente ante las figuras de autoridad.

                                                                                                                                Read more!

                                                                                                                                “Puede que con la tecnología pase algo similar: vamos cambiando y perdiendo cosas en el camino, pieza por pieza, entonces nos acostumbramos y seguimos y lo aceptamos porque hay hombres de ciencia que están diseñando el mundo del futuro. Hay que debatir esta idea”, dice la doctora Paula Boddington, quien ha investigado las consecuencias y los problemas éticos alrededor del desarrollo de la inteligencia artificial (IA).

                                                                                                                                La salvación para el crecimiento económico, el mayor peligro para la humanidad, el mejor aliado para el trabajo, el peor enemigo del mercado laboral, una espada de doble filo...

                                                                                                                                En este punto de la historia, la IA ha sido calificada con cada una de estas expresiones y tantas otras más, tan contradictorias entre sí como grandilocuentes.

                                                                                                                                La batalla de adjetivos y calificaciones sirve, en buena parte, para ilustrar un punto algo obvio con todo tipo de tecnología, pero que resulta particularmente cierto y urgente con esta: como cualquier herramienta, la IA puede servir para construir o destruir; de la misma forma que un martillo sirve erigir una casa o para romper cráneos.

                                                                                                                                La responsabilidad humana en la inteligencia artificial

                                                                                                                                El concepto que Boddington más recalca en su trabajo es el de la responsabilidad, que se puede ir diluyendo en el entramado corporativo que va desde la creación de una aplicación de IA a su inclusión en sistemas públicos para, por ejemplo, calificar el desempeño de profesores escolares.

                                                                                                                                No ad for you

                                                                                                                                Uno de los puntos que preocupa a investigadores y analistas es que, casi por diseño, muchos de los parámetros y engranajes que permiten a un modelo de IA funcionar son secretos corporativos: nadie sabe muy bien cómo se hace la salsa, pero adelante, hay que comerla.

                                                                                                                                Read more!

                                                                                                                                Y esto es particularmente complicado para una variedad de tecnologías, pero lo es particularmente para sistemas de IA, pues el conjunto de datos con el cual se entrena un modelo de IA puede llevar a resultados con sesgos de género o raciales, por solo hablar de dos puntos complejos.

                                                                                                                                Lea también: Límites, riesgos y la importancia de regular la inteligencia artificial

                                                                                                                                No ad for you

                                                                                                                                “Al final, hay personas detrás de estas decisiones. No es un asunto que deba quedar en manos de compañías o corporaciones. Hay responsabilidades individuales porque hay afectaciones individuales o sobre porciones enteras de la sociedad”, asegura Boddington. Y agrega: “Si utilizamos la IA de forma indiscriminada, lo que puede pasar es que destruyamos lentamente la cadena de responsabilidades. No estoy hablando de culpa, sino de responsabilidad. Creo que hay preguntas serias que no nos estamos haciendo y puede que las estemos evadiendo en medio de la euforia por los beneficios potenciales de una tecnología que puede ser revolucionaria”.

                                                                                                                                En esto concuerda el Centro para la Democracia y la Tecnología en Estados Unidos (CDT), que ha publicado varios documentos advirtiendo sobre los riegos en la asignación de responsabilidades cuando se usa tecnología de firmas privadas para procesos públicos: “Detrás del ‘sistema’ hay una persona o un grupo de ellas. Es importante saber quiénes son porque ayuda a saber cómo fue construida una tecnología que toma decisiones por nosotros”.

                                                                                                                                No ad for you

                                                                                                                                La Electronic Frontier Foundation, una de las organizaciones líderes en derechos digitales en EE.UU., hace eco de este tipo de preocupaciones y, en el sentido del que habla Boddington, plantea una serie de preguntas que deben tener respuesta en medio del auge de los modelos de IA. Se trata de cosas como “cuando los algoritmos (incluyendo sistemas de IA y de aprendizaje de máquinas) tomen decisiones que afecten vidas humanas, ¿cuánta transparencia, apertura y responsabilidad se debería aplicar a esas decisiones? Cuando esas decisiones sean ‘incorrectas’, ¿quién es responsable legal y éticamente?”.

                                                                                                                                Los pasos hacia la regulación de la IA

                                                                                                                                Las últimas dos semanas han estado movidas en términos de regulación de la IA.

                                                                                                                                No ad for you

                                                                                                                                Para comenzar, la ONU anunció la conformación de un grupo internacional de expertos para hacer recomendaciones sobre el desarrollo global de la IA. El grupo está conformado por 39 personas de 33 países, entre las que se encuentran funcionarios oficiales, académicos y representantes de empresas como Sony, Microsoft, Google y OpenAI.

                                                                                                                                Además de resaltar sus potenciales beneficios, Antonio Guterres, secretario general de la ONU, aseguró durante la presentación de este consejo que la IA puede “socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la propia democracia”. Así mismo, Guterres señaló otro de los riesgos obvios: la concentración geográfica en el desarrollo de esta tecnología, algo que puede “agravar las desigualdades mundiales y convertir las brechas digitales en abismos”.

                                                                                                                                No ad for you

                                                                                                                                Se espera que este consejo consultivo entregue recomendaciones a finales de este año en tres áreas claves: gobernanza internacional, riesgos y desafíos, y oportunidades para acelerar el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS).

                                                                                                                                No ad for you

                                                                                                                                Por otro lado, Joe Biden, presidente de EE. UU., publicó esta semana una orden ejecutiva que obliga a las empresas a advertir cuando sus desarrollos en este campo puedan poner en riesgo la seguridad económica o nacional, entre otros aspectos. También se establece una vigilancia activa por parte de entidades de sectores como seguridad e inteligencia para advertir cuando este tipo de tecnologías representen amenazas sobre infraestructura crítica, entre otros aspectos.

                                                                                                                                En declaraciones a medios, Biden aseguró que la orden ejecutiva que promulgó era la “acción más significativa” adoptada hasta el momento en este ámbito y que esta podría ser un modelo para otros Estados.

                                                                                                                                No ad for you

                                                                                                                                Si bien se trata de un paso importante en temas regulatorios, pues en EE. UU. se han publicado en su mayoría guías con previsiones opcionales para las empresas, los críticos de la medida han dicho que deja mucho margen de interpretación y acción para los desarrolladores. “La orden habla de seguridad económica. ¿Cuándo definimos que eso se ha vulnerado, incluso si ya está pasando?”, comentó un usuario en redes sociales acerca de la orden ejecutiva de Biden.

                                                                                                                                Pocos días después de la movida en la Casa Blanca, una veintena de países (incluyendo a EE. UU., China y la Unión Europea) firmaron la declaración de Bletchley, un documento que busca un “desarrollo seguro” de la IA.

                                                                                                                                Si bien la declaración no intenta establecer una regulación mundial para esta tecnología, sí pretende resaltar “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales” de la IA, según se lee en el documento.

                                                                                                                                El modelo de la Unión Europea

                                                                                                                                No ad for you

                                                                                                                                En términos de regulación, a pesar de lo dicho por el presidente Biden, el mayor esfuerzo legislativo pareciera estar encabezado por la Unión Europea (UE), que está en negociaciones finales de una ley que aplicaría para todos los países del bloque y estaría lista para firmar a finales de este año.

                                                                                                                                La meta de la UE es que la ley que promulgue, que sería la primera en la materia en un gobierno occidental, clasificaría las aplicaciones de IA, dependiendo de su riesgo, en tres categorías: riesgo inaceptable (lo que acarrea un veto), riesgo alto (evaluaciones antes de entrar al mercado y durante su permanencia de cara al público) y riesgo limitado (deben cumplir con requisitos mínimos en términos de transparencia, entre otros parámetros).

                                                                                                                                No ad for you

                                                                                                                                Entre las aplicaciones de riesgo inaceptable, por ejemplo, se encuentran sistemas que clasifiquen a las personas de acuerdo con su comportamiento, su estatus socioeconómico o características personales. También se incluyen sistemas de identificación biométrica en tiempo real (como reconocimiento facial).

                                                                                                                                En un comunicado, el Parlamento Europeo aseguró que “los sistemas de IA deben ser supervisados por personas, en vez de sistemas de automatización, para prevenir resultados dañinos”.

                                                                                                                                Al final del día, lo que estos esfuerzos demuestran es la necesidad creciente de regulación para adaptar las fronteras y posibilidades de esta tecnología a las necesidades de una humanidad que ya enfrenta otros peligros existenciales, como el cambio climático.

                                                                                                                                No ad for you

                                                                                                                                💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.

                                                                                                                                Ver todas las noticias
                                                                                                                                Read more!
                                                                                                                                Read more!
                                                                                                                                Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
                                                                                                                                Aceptar