Multinacionales

Las principales empresas tecnológicas forman un grupo que busca controlar la inteligencia artificial

Anthropic, Google, Microsoft y OpenAI se unen para establecer las mejores prácticas, pero los críticos argumentan que quieren evitar la regulación.

Por: Financial Times, traducido por Laura Guzmán | Publicado: Miércoles 26 de julio de 2023 a las 08:10 hrs.
  • T+
  • T-

Compartir

Cuatro de las compañías de inteligencia artificial más avanzadas del mundo han formado un grupo para investigar una IA cada vez más poderosa y establecer las mejores prácticas para controlarla, a medida que aumenta la ansiedad pública y el escrutinio regulatorio sobre el impacto de la tecnología.

El miércoles, Anthropic, Google, Microsoft y OpenAI lanzaron el Frontier Model Forum, con el objetivo de “garantizar el desarrollo seguro y responsable de los modelos fronterizos de IA”.

En los últimos meses, las empresas estadounidenses han lanzado herramientas de inteligencia artificial cada vez más poderosas que producen contenido original en forma de imagen, texto o video basándose en un banco de material existente. Los desarrollos han generado preocupaciones sobre la infracción de los derechos de autor, las violaciones de la privacidad y que la IA podría, en última instancia, reemplazar a los humanos en una variedad de trabajos.

“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo el control humano”, dijo Brad Smith, vicepresidente y presidente de Microsoft . “Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad”.

La membresía del foro se limita solo a un puñado de empresas que construyen " modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados", según sus fundadores. 

 Alphabet, matriz de Google, superó las estimaciones de resultados, gracias a fortaleza de los ingresos publicitarios

Eso sugiere que su trabajo se centrará en los riesgos potenciales derivados de una IA considerablemente más poderosa, en lugar de responder preguntas sobre derechos de autor, protección de datos y privacidad que son pertinentes para los reguladores en la actualidad. 

La Comisión Federal de Comercio de EEUU inició una investigación sobre OpenAI para determinar si la empresa se ha involucrado en prácticas de privacidad y seguridad de datos "injustas o engañosas" o si ha dañado a las personas al crear información falsa sobre ellas. El presidente Joe Biden ha indicado que dará seguimiento con una acción ejecutiva para promover la “ innovación responsable ”.

A su vez, los jefes de AI han dado un tono tranquilizador, enfatizando que son conscientes de los peligros y se comprometen a mitigarlos. La semana pasada, los ejecutivos de las cuatro empresas que lanzaron el nuevo foro se comprometieron con el "desarrollo seguro, protegido y transparente de la tecnología de IA" en la Casa Blanca.

Emily Bender, lingüista computacional de la Universidad de Washington que ha investigado extensamente grandes modelos de lenguaje, dijo que las garantías de las empresas fueron “un intento de evitar la regulación; afirmar la capacidad de autorregulación, de lo que soy muy escéptico”.

Centrar la atención en los temores de que “las máquinas cobrarán vida y tomarán el control” fue una distracción de “los problemas reales que tenemos que ver con el robo de datos, la vigilancia y poner a todos en la economía informal”, dijo.

Microsoft informó aumento en ganancias trimestrales, pero la acción cayó por señales de debilidad en su negocio en la nube

“La regulación debe venir externamente. Debe ser promulgada por el gobierno que representa a la gente para limitar lo que estas corporaciones pueden hacer”, agregó.

El Frontier Model Forum tendrá como objetivo promover la investigación sobre seguridad y proporcionar un canal de comunicación entre la industria y los legisladores.

Grupos similares se han establecido antes. La Asociación sobre IA, de la que Google y Microsoft también fueron miembros fundadores, se formó en 2016 con miembros de la sociedad civil, el mundo académico y la industria, y con la misión de promover el uso responsable de la IA.

Lo más leído