Frontier Model Forum: la coalición que combatirá los riesgos de la IA
Está conformada por Google, Microsoft, OpenAI y Anthropic y regulará el desarrollo de la inteligencia artificial.
Este miércoles, los gigantes estadounidenses de la IA anunciaron la creación del Frontier Model Forum, un organismo que tendrá por objetivo regular el desarrollo de los modelos de inteligencia artificial y prevenir el uso indebido de esta tecnología.
Si bien gobiernos e industria están de acuerdo en que las IA tienen el potencial de beneficiar al mundo, se necesitan barreras adecuadas para mitigar sus riesgos.
Cabe recordar que el pasado viernes 21 de julio, Joe Biden, presidente de Estados Unidos, se reunió con los ejecutivos de las principales compañías de IA para solicitarles un mayor compromiso de cara a la prevención de ciberataques, fraudes, desinformación y otros riesgos asociados a esta tecnología.
De ahí que el Frontier Model Forum, que está compuesto por Google, Microsoft, OpenAI y Anthropic, proponga acciones para que esta industria adopte mejores prácticas y estándares, a través de mecanismos como evaluaciones técnicas o, incluso, el desarrollo de una biblioteca pública de soluciones.
Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, declaró que: “es vital que las empresas de IA -especialmente las que trabajan en los modelos más potentes- se alineen en un terreno común y avancen en prácticas de seguridad reflexivas y adaptables para garantizar que las potentes herramientas de IA tengan el mayor beneficio posible. Se trata de un trabajo urgente y este foro está bien posicionado para actuar con rapidez para avanzar en el estado de la seguridad de la IA”.
En un comunicado conjunto, los miembros de Frontier Model Forum precisaron que los objetivos que perseguirá esta organización son:
📍 Seguridad: El Frontier Model Forum promoverá el desarrollo responsable de modelos de IA para minimizar riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y la seguridad de estos sistemas.
📍 Desarrollo: Identificar mejores prácticas para el desarrollo y el despliegue responsable de modelos de IA, “ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología”, indicaron los miembros del Frontier Model Forum.
📍 Gobernanza: el Frontier Model Forum colaborará con los responsables políticos, el mundo académico, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos para la confianza y la seguridad de las IA.
📍 Responsabilidad social: la coalición se compromete con apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a afrontar los grandes retos de la sociedad, tales como la mitigación y adaptación al cambio climático, la detección precoz y la prevención del cáncer y la lucha contra las ciberamenazas.
“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance responsable de la IA y abordar los retos para que beneficie a toda la humanidad”, señaló Brad Smith, vicepresidente y presidente de Microsoft.
Lea también: Musk explica por qué busca eliminar el nombre y el logo de Twitter
La hoja de ruta de la coalición
Frontier Model Forum, así mismo, será un vehículo para los debates y discusiones que se seguirán dando sobre la seguridad y la responsabilidad de la IA.
Para ello, la organización trabajará durante el próximo año en tareas como: supervisión escalable, acceso independiente a la investigación y detección de anomalías, entre otros.
Inicialmente se prestará especial atención al desarrollo y puesta en común de una biblioteca pública de evaluaciones técnicas y puntos de referencia para modelos de IA de vanguardia, así como en facilitar el intercambio de información entre empresas y gobiernos.
Lea también: Samsung refuerza sus apuestas por la versatilidad con los Galaxy Z Flip y Fold 5
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
Este miércoles, los gigantes estadounidenses de la IA anunciaron la creación del Frontier Model Forum, un organismo que tendrá por objetivo regular el desarrollo de los modelos de inteligencia artificial y prevenir el uso indebido de esta tecnología.
Si bien gobiernos e industria están de acuerdo en que las IA tienen el potencial de beneficiar al mundo, se necesitan barreras adecuadas para mitigar sus riesgos.
Cabe recordar que el pasado viernes 21 de julio, Joe Biden, presidente de Estados Unidos, se reunió con los ejecutivos de las principales compañías de IA para solicitarles un mayor compromiso de cara a la prevención de ciberataques, fraudes, desinformación y otros riesgos asociados a esta tecnología.
De ahí que el Frontier Model Forum, que está compuesto por Google, Microsoft, OpenAI y Anthropic, proponga acciones para que esta industria adopte mejores prácticas y estándares, a través de mecanismos como evaluaciones técnicas o, incluso, el desarrollo de una biblioteca pública de soluciones.
Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, declaró que: “es vital que las empresas de IA -especialmente las que trabajan en los modelos más potentes- se alineen en un terreno común y avancen en prácticas de seguridad reflexivas y adaptables para garantizar que las potentes herramientas de IA tengan el mayor beneficio posible. Se trata de un trabajo urgente y este foro está bien posicionado para actuar con rapidez para avanzar en el estado de la seguridad de la IA”.
En un comunicado conjunto, los miembros de Frontier Model Forum precisaron que los objetivos que perseguirá esta organización son:
📍 Seguridad: El Frontier Model Forum promoverá el desarrollo responsable de modelos de IA para minimizar riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y la seguridad de estos sistemas.
📍 Desarrollo: Identificar mejores prácticas para el desarrollo y el despliegue responsable de modelos de IA, “ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología”, indicaron los miembros del Frontier Model Forum.
📍 Gobernanza: el Frontier Model Forum colaborará con los responsables políticos, el mundo académico, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos para la confianza y la seguridad de las IA.
📍 Responsabilidad social: la coalición se compromete con apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a afrontar los grandes retos de la sociedad, tales como la mitigación y adaptación al cambio climático, la detección precoz y la prevención del cáncer y la lucha contra las ciberamenazas.
“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance responsable de la IA y abordar los retos para que beneficie a toda la humanidad”, señaló Brad Smith, vicepresidente y presidente de Microsoft.
Lea también: Musk explica por qué busca eliminar el nombre y el logo de Twitter
La hoja de ruta de la coalición
Frontier Model Forum, así mismo, será un vehículo para los debates y discusiones que se seguirán dando sobre la seguridad y la responsabilidad de la IA.
Para ello, la organización trabajará durante el próximo año en tareas como: supervisión escalable, acceso independiente a la investigación y detección de anomalías, entre otros.
Inicialmente se prestará especial atención al desarrollo y puesta en común de una biblioteca pública de evaluaciones técnicas y puntos de referencia para modelos de IA de vanguardia, así como en facilitar el intercambio de información entre empresas y gobiernos.
Lea también: Samsung refuerza sus apuestas por la versatilidad con los Galaxy Z Flip y Fold 5
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.