Lo que debe saber del proyecto de ley en Estados Unidos sobre seguridad de IA
El proyecto SB 1047 fue aprobado por el Comité de Asignaciones Presupuestarias y por la Asamblea de California, dando un paso importante para convertirse en ley el estado.
Las regulaciones contra la inteligencia artificial y sus aplicaciones cada vez agarran más fuerza. En California, la AI Safety Bill (La ley de seguridad en IA) está siguiendo su rumbo hacia la oficina del gobernador y quiere sentar un precedente significativo en el país norteamericano.
El senador californiano Scott Wiener presentó un proyecto de ley en septiembre de 2023, con el nombre técnico SB 1047, que pretende hacer más transparentes los modelos generativos de IA. Su principal intención es que el estado sea pionero en proponer el debate en Estados Unidos sobre cómo regular esta nueva tecnología que está creciendo de forma desenfrenada.
El Comité de Asignaciones Presupuestarias estatal aprobó la iniciativa a mediados de agosto y logró superar el pleno de la Asamblea con una mayoría a favor en la votación que ocurrió el 20 de agosto. Ahora, regresará al Senado del estado para una ratificación. Gavin Newsom, gobernador de California, deberá aprobarlo en su totalidad para que entre en vigor.
La reforma está inspirada en algunos aspectos y requisitos similares a los establecidos en la Unión Europa en las últimas semanas, y que proponen buscar desarrollos seguros de los sistemas de inteligencia artificial a gran escala.
El gran objetivo es evitar que esta tecnología sea utilizada para generar amenazas de seguridad públicas. De acuerdo al documento, pretende “establecer normas de seguridad claras, predecibles y de sentido común para los desarrolladores de los sistemas de inteligencia artificial más grandes y poderosos”.
Le recomendamos leer: ¿Por qué es importante la ley de IA que entra a regir hoy en la Unión Europea?
¿Qué dice la ley de regulación IA?
Lo primero es que su aprobación forzaría a las empresas que desarrollan grandes modelos de lenguaje a implementar protocolos de seguridad para mitigar sus usos indebidos. El requisito estaría presente para los algoritmos cuyos entrenamientos cuestan más de 100 millones de dólares.
Del mismo modo, estos sistemas deben generar un botón de apagado de emergencia que desactive las operaciones completamente en caso de que su funcionamiento se salga de control.
Otra normativa que presenta el proyecto es la prohibición de la distribución y comercialización de herramientas impulsadas con IA que puedan causar “daños críticos” a la sociedad. En la categoría aparecen ejemplos como desarrollos para la creación de armas cibernéticas, nucleares y químicas.
El marco regulatorio propone que la entidad regulatoria correspondiente, en este caso la Agencia de Operaciones Gubernamentales en Estados Unidos, tenga la autoridad para exigir auditorías externas anuales, con el fin de garantizar que las empresas cumplan con las normas establecidas.
En caso de que se detecten violaciones a los protocolos de seguridad que propone la normativa, la entidad podría imponer multas civiles. Las sanciones más graves podrían alcanzar hasta el 30 % del costo asociado a la potencia de cálculo que utilizan los modelos que infrinjan las regulaciones. Además, el organismo regulador tendría la potestad de ordenar la suspensión o eliminación de los algoritmos que no cumplan con las normativas.
El proyecto de ley SB 1047 afectaría a todos los desarrolladores de modelos de IA que operen en California. Es decir, si una empresa de IA tiene su sede en Miami y permite que los californianos utilicen sus productos, estará sujeta a estas restricciones.
Le podría interesar: ¿Son más “atractivos” los iPhone en Europa?
¿Qué dicen las compañías de IA al respecto?
En una carta al público, el director de estrategia de OpenAI, Jason Kwon, aseguró que la regulación de la IA debe dejarse en manos del gobierno federal. Asimismo, afirmó que un nuevo proyecto de ley sobre seguridad de la IA, el que se está estudiando en California, podría ralentizar el progreso y hacer que las empresas abandonen el estado.
“Un conjunto de políticas sobre IA impulsadas por el gobierno federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a Estados Unidos para liderar el desarrollo de estándares globales. Por todo ello, nos unimos a otros laboratorios de IA, desarrolladores, expertos y miembros de la delegación de California en el Congreso para oponernos respetuosamente a la SB 1047 y agradecemos la oportunidad de exponer algunas de nuestras principales preocupaciones”, escribió la compañía en la carta.
Adicionalmente, Bloomberg informó que OpenAI puso en pausa las conversaciones sobre la ampliación de sus oficinas en San Francisco debido a la preocupación por el panorama normativo de California.
Para la sorpresa de muchos, Elon Musk se pronunció al respecto y mostró su apoyo al proyecto de ley. A través de su cuenta de X expresó: “Se trata de una decisión difícil que disgustará a algunas personas, pero, considerándolo todo, creo que California debería aprobar el proyecto de ley SB 1047 sobre la seguridad de la IA”.
Argumentando su postura, el dueño de X y Tesla, agregó que “durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto o tecnología que suponga un riesgo potencial para el público”.
En julio de este año, Musk prometió trasladar sus oficinas de SpaceX y X en California a Austin, Texas, donde ya está ubicada la sede principal de Tesla. Según el empresario, está cansado de ver “grupos de adictos al salir de su edificio” y la gota que rebosó su paciencia en California fue la aprobación que a los centros escolares crear o aplicar políticas que obliguen a los empleados a revelar la sexualidad o identidad de género de los estudiantes a cualquier persona sin su consentimiento.
Kevin McKinley, gerente de políticas estatales de Meta, dijo en una declaración para Los Angeles Times que “aunque Meta comparte los objetivos del proyecto de ley, teme que perjudique la innovación en California”.
En caso de ser ratificado en los próximos días, el gobernador de California, Gavin Newsom, tendrá hasta el 30 de septiembre para decidir si firma o veta el proyecto. De momento, no ha manifestado intenciones de ir a favor ni en contra.
Por último, es importante mencionar que simultáneamente está avanzando un proyecto en California, la AB 3211, que busca exigir la inclusión de una marca de agua en los contenidos generados por IA. Este proyecto ya fue aprobado por la Asamblea estatal con una votación de 62 a 0 y tendrán hasta el final de la sesión legislativa del próximo 31 de para ratificar la aprobación. Este proyecto sí cuenta con el Apoyo de OpenAI y de otras compañías de IA.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
Las regulaciones contra la inteligencia artificial y sus aplicaciones cada vez agarran más fuerza. En California, la AI Safety Bill (La ley de seguridad en IA) está siguiendo su rumbo hacia la oficina del gobernador y quiere sentar un precedente significativo en el país norteamericano.
El senador californiano Scott Wiener presentó un proyecto de ley en septiembre de 2023, con el nombre técnico SB 1047, que pretende hacer más transparentes los modelos generativos de IA. Su principal intención es que el estado sea pionero en proponer el debate en Estados Unidos sobre cómo regular esta nueva tecnología que está creciendo de forma desenfrenada.
El Comité de Asignaciones Presupuestarias estatal aprobó la iniciativa a mediados de agosto y logró superar el pleno de la Asamblea con una mayoría a favor en la votación que ocurrió el 20 de agosto. Ahora, regresará al Senado del estado para una ratificación. Gavin Newsom, gobernador de California, deberá aprobarlo en su totalidad para que entre en vigor.
La reforma está inspirada en algunos aspectos y requisitos similares a los establecidos en la Unión Europa en las últimas semanas, y que proponen buscar desarrollos seguros de los sistemas de inteligencia artificial a gran escala.
El gran objetivo es evitar que esta tecnología sea utilizada para generar amenazas de seguridad públicas. De acuerdo al documento, pretende “establecer normas de seguridad claras, predecibles y de sentido común para los desarrolladores de los sistemas de inteligencia artificial más grandes y poderosos”.
Le recomendamos leer: ¿Por qué es importante la ley de IA que entra a regir hoy en la Unión Europea?
¿Qué dice la ley de regulación IA?
Lo primero es que su aprobación forzaría a las empresas que desarrollan grandes modelos de lenguaje a implementar protocolos de seguridad para mitigar sus usos indebidos. El requisito estaría presente para los algoritmos cuyos entrenamientos cuestan más de 100 millones de dólares.
Del mismo modo, estos sistemas deben generar un botón de apagado de emergencia que desactive las operaciones completamente en caso de que su funcionamiento se salga de control.
Otra normativa que presenta el proyecto es la prohibición de la distribución y comercialización de herramientas impulsadas con IA que puedan causar “daños críticos” a la sociedad. En la categoría aparecen ejemplos como desarrollos para la creación de armas cibernéticas, nucleares y químicas.
El marco regulatorio propone que la entidad regulatoria correspondiente, en este caso la Agencia de Operaciones Gubernamentales en Estados Unidos, tenga la autoridad para exigir auditorías externas anuales, con el fin de garantizar que las empresas cumplan con las normas establecidas.
En caso de que se detecten violaciones a los protocolos de seguridad que propone la normativa, la entidad podría imponer multas civiles. Las sanciones más graves podrían alcanzar hasta el 30 % del costo asociado a la potencia de cálculo que utilizan los modelos que infrinjan las regulaciones. Además, el organismo regulador tendría la potestad de ordenar la suspensión o eliminación de los algoritmos que no cumplan con las normativas.
El proyecto de ley SB 1047 afectaría a todos los desarrolladores de modelos de IA que operen en California. Es decir, si una empresa de IA tiene su sede en Miami y permite que los californianos utilicen sus productos, estará sujeta a estas restricciones.
Le podría interesar: ¿Son más “atractivos” los iPhone en Europa?
¿Qué dicen las compañías de IA al respecto?
En una carta al público, el director de estrategia de OpenAI, Jason Kwon, aseguró que la regulación de la IA debe dejarse en manos del gobierno federal. Asimismo, afirmó que un nuevo proyecto de ley sobre seguridad de la IA, el que se está estudiando en California, podría ralentizar el progreso y hacer que las empresas abandonen el estado.
“Un conjunto de políticas sobre IA impulsadas por el gobierno federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a Estados Unidos para liderar el desarrollo de estándares globales. Por todo ello, nos unimos a otros laboratorios de IA, desarrolladores, expertos y miembros de la delegación de California en el Congreso para oponernos respetuosamente a la SB 1047 y agradecemos la oportunidad de exponer algunas de nuestras principales preocupaciones”, escribió la compañía en la carta.
Adicionalmente, Bloomberg informó que OpenAI puso en pausa las conversaciones sobre la ampliación de sus oficinas en San Francisco debido a la preocupación por el panorama normativo de California.
Para la sorpresa de muchos, Elon Musk se pronunció al respecto y mostró su apoyo al proyecto de ley. A través de su cuenta de X expresó: “Se trata de una decisión difícil que disgustará a algunas personas, pero, considerándolo todo, creo que California debería aprobar el proyecto de ley SB 1047 sobre la seguridad de la IA”.
Argumentando su postura, el dueño de X y Tesla, agregó que “durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto o tecnología que suponga un riesgo potencial para el público”.
En julio de este año, Musk prometió trasladar sus oficinas de SpaceX y X en California a Austin, Texas, donde ya está ubicada la sede principal de Tesla. Según el empresario, está cansado de ver “grupos de adictos al salir de su edificio” y la gota que rebosó su paciencia en California fue la aprobación que a los centros escolares crear o aplicar políticas que obliguen a los empleados a revelar la sexualidad o identidad de género de los estudiantes a cualquier persona sin su consentimiento.
Kevin McKinley, gerente de políticas estatales de Meta, dijo en una declaración para Los Angeles Times que “aunque Meta comparte los objetivos del proyecto de ley, teme que perjudique la innovación en California”.
En caso de ser ratificado en los próximos días, el gobernador de California, Gavin Newsom, tendrá hasta el 30 de septiembre para decidir si firma o veta el proyecto. De momento, no ha manifestado intenciones de ir a favor ni en contra.
Por último, es importante mencionar que simultáneamente está avanzando un proyecto en California, la AB 3211, que busca exigir la inclusión de una marca de agua en los contenidos generados por IA. Este proyecto ya fue aprobado por la Asamblea estatal con una votación de 62 a 0 y tendrán hasta el final de la sesión legislativa del próximo 31 de para ratificar la aprobación. Este proyecto sí cuenta con el Apoyo de OpenAI y de otras compañías de IA.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.