
Las principales empresas de inteligencia artificial han formado un grupo para investigar y mantener el control de la IA, mientras que los escépticos afirman que las compañías buscan evitar la regulación.
Creación del Frontier Model Forum
Anthropic, Google, Microsoft y OpenAI han lanzado el Frontier Model Forum con el objetivo de «garantizar el desarrollo seguro y responsable de los modelos de IA de frontera».
En los últimos meses, las compañías estadounidenses han implementado herramientas de IA cada vez más poderosas que generan contenido original en forma de imágenes, texto o video, lo que ha generado preocupación por la violación de derechos de autor, la privacidad y la posibilidad de reemplazar humanos en diversos trabajos.
Responsabilidad y Control Humano
«Las empresas que crean tecnología de IA tienen la responsabilidad de asegurarse de que sea segura, segura y permanezca bajo control humano», afirmó Brad Smith, vicepresidente y presidente de Microsoft. «Esta iniciativa es un paso vital para unir al sector tecnológico en el avance responsable de la IA y enfrentar los desafíos para que beneficie a toda la humanidad».
La membresía del foro se limita a las empresas que construyen «modelos de aprendizaje automático a gran escala que exceden las capacidades actualmente presentes en los modelos existentes más avanzados», según los fundadores.
Enfocándose en Riesgos y Regulaciones
El trabajo del grupo se centrará en los riesgos potenciales derivados de una IA considerablemente más poderosa, en lugar de responder preguntas sobre derechos de autor, protección de datos y privacidad relevantes para los reguladores actuales.
La Comisión Federal de Comercio de EE. UU. ha lanzado una investigación sobre OpenAI, y el presidente Joe Biden ha indicado que promoverá la «innovación responsable» a través de acciones ejecutivas.

Respuestas de los Directivos de IA
Los líderes de IA han adoptado un tono tranquilizador, enfatizando que son conscientes de los peligros y están comprometidos a mitigarlos. La semana pasada, ejecutivos de las cuatro compañías se comprometieron con el «desarrollo seguro, seguro y transparente de la tecnología de IA» en la Casa Blanca.
Emily Bender, lingüista computacional, afirmó que las garantías de las compañías son «un intento de evitar la regulación; de afirmar la capacidad de autorregularse, de lo cual soy muy escéptica».
La Necesidad de Regulación Externa
Emily agregó que la regulación necesita venir de manera externa y ser promulgada por el gobierno. «Las restricciones deben ser establecidas por un organismo que represente al pueblo, para limitar lo que estas corporaciones pueden hacer», dijo.
El Frontier Model Forum tiene como objetivo promover la investigación de seguridad y proporcionar un canal de comunicación entre la industria y los responsables políticos.
Grupos similares han sido establecidos anteriormente, como la Partnership on AI, con la misión de promover el uso responsable de la IA.
Fuente: https://arstechnica.com/ai/2023/07/major-ai-companies-form-group-to-research-keep-control-of-ai/