Skip to main content

Cuatro de los principales actores de la inteligencia artificial se están uniendo para formar un nuevo organismo de la industria diseñado para garantizar el “desarrollo seguro y responsable” de los llamados modelos de “inteligencia artificial fronteriza”.

En respuesta a las crecientes demandas de supervisión regulatoria, OpenAI, Microsoft, Google y Anthropic han anunciado el Frontier Model Forum, una coalición que aprovecha la experiencia de las empresas miembro para desarrollar evaluaciones técnicas y referentes, y promover las mejores prácticas y estándares.

En el núcleo de la misión del foro se encuentra lo que OpenAI ha denominado anteriormente “inteligencia artificial fronteriza”, que son modelos avanzados de IA y aprendizaje automático considerados lo suficientemente peligrosos como para plantear “riesgos graves para la seguridad pública”. Argumentan que tales modelos plantean un desafío regulatorio único, ya que “las capacidades peligrosas pueden surgir inesperadamente”, lo que dificulta evitar que los modelos sean mal utilizados.

Los objetivos declarados por el nuevo foro incluyen:

1) Avanzar en la investigación sobre la seguridad de la IA para promover el desarrollo responsable de modelos fronterizos, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
2) Identificar las mejores prácticas para el desarrollo y despliegue responsable de modelos fronterizos, ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología.
3) Colaborar con responsables políticos, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
4) Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer y la lucha contra las amenazas cibernéticas.

Aunque el Frontier Model Forum cuenta actualmente con solo cuatro miembros, el colectivo afirma estar abierto a nuevos miembros. Las organizaciones calificadas deben estar desarrollando y desplegando modelos de IA fronterizos y demostrar un “fuerte compromiso con la seguridad de los modelos fronterizos”.

A corto plazo, los miembros fundadores afirman que los primeros pasos serán establecer una junta asesora para dirigir su estrategia, junto con un estatuto, una estructura de gobernanza y financiamiento.

“Planeamos consultar con la sociedad civil y los gobiernos en las próximas semanas sobre el diseño del Foro y formas significativas de colaboración”, escribieron las empresas en un comunicado conjunto hoy.

Si bien el Frontier Model Forum está diseñado para demostrar que la industria de la IA se toma en serio las preocupaciones de seguridad, también destaca el deseo de las grandes tecnologías de evitar una regulación entrante a través de iniciativas voluntarias, y quizás avanzar hacia la redacción de sus propias reglas.

De hecho, esta noticia llega en un momento en que Europa avanza con lo que se convertirá en el primer conjunto concreto de normas de IA, diseñadas para consagrar la seguridad, privacidad, transparencia y antidiscriminación en el corazón del desarrollo de IA de las empresas.

La semana pasada, el presidente Biden se reunió con siete empresas de IA en la Casa Blanca, incluidos los cuatro miembros fundadores del Frontier Model Forum, para acordar salvaguardias voluntarias contra la creciente revolución de la IA, aunque los críticos argumentan que los compromisos fueron algo vagos.

Sin embargo, Biden también indicó que la supervisión regulatoria estaría en consideración en el futuro.

“Darse cuenta de la promesa de la IA al manejar el riesgo requerirá algunas nuevas leyes, regulaciones y supervisión”, dijo Biden en ese momento. “En las próximas semanas, continuaré tomando medidas ejecutivas para ayudar a Estados Unidos a liderar el camino hacia una innovación responsable. Y trabajaremos con ambos partidos para desarrollar una legislación y regulación adecuadas”.

Leave a Reply