OpenAI amenaza con dejar de operar en la UE si las futuras regulaciones son estrictas

OpenAI amenaza con dejar de operar en la UE si las futuras regulaciones son estrictas
Sam Altman / Fuente: Chris Morris

El CEO de OpenAI, Sam Altman, ha advertido que la compañía podría retirar sus servicios del mercado europeo en respuesta a la regulación de la IA en la Unión Europea.

Hablando con los reporteros después de una charla en Londres, Altman dijo que tenía "muchas preocupaciones" sobre la Ley de IA de la UE, que está siendo desarrollada por los legisladores. Los términos de la Ley se han ampliado en los últimos meses para incluir nuevas obligaciones para los fabricantes de los llamados "modelos base" - sistemas de IA a gran escala que impulsan servicios como ChatGPT y DALL-E de OpenAI.

"Los detalles realmente importan", dijo Altman, según un informe de The Financial Times. "Intentaremos cumplir, pero si no podemos cumplir, cesaremos nuestra operación".

En declaraciones hechas a Time, Altman dijo que la preocupación era que los sistemas como ChatGPT serán designados como "alto riesgo" bajo la legislación de la UE. Esto significa que OpenAI tendría que cumplir con una serie de requisitos de seguridad y transparencia. "O bien podremos resolver esos requisitos o no", dijo Altman.

Además de los desafíos técnicos, las divulgaciones requeridas bajo la Ley de IA de la UE también presentan posibles amenazas comerciales para OpenAI. Una disposición en el borrador actual requiere que los creadores de modelos de inteligencia IA divulguen detalles sobre el diseño de su sistema (incluyendo "potencia informática requerida, tiempo de entrenamiento y otra información relevante relacionada con el tamaño y la potencia del modelo") y proporcionen "resúmenes de los datos con derechos de autor utilizados para el entrenamiento".

OpenAI solía compartir este tipo de información, pero ha dejado de hacerlo a medida que sus herramientas se han vuelto cada vez más valiosas. En marzo, el cofundador de OpenAI, Ilya Sutskever, dijo que la compañía había cometido un error al divulgar esos datos en el pasado, y que mantener información como los métodos de entrenamiento y las fuentes de datos en secreto era necesario para evitar que todo el trabajo realizado fuera copiado por otras compañías rivales.

Además de la posible amenaza comercial, obligar a OpenAI a identificar su uso de datos con derechos de autor expondría a la compañía a posibles demandas legales. Los sistemas generativos de IA como ChatGPT y DALL-E se entrenan usando grandes cantidades de datos recopilados de la web, muchos de los cuales están protegidos por derechos de autor. Cuando las empresas divulgan estas fuentes de datos, las dejan vulnerables en términos legales. La rival de OpenAI, Stability AI, por ejemplo, está siendo demandada actualmente por el fabricante de imágenes de archivo Getty Images por usar sus datos con derechos de autor para entrenar su generador de imágenes de IA.

Los recientes comentarios de Altman ayudan a esbozar una imagen más matizada del deseo de la compañía por la regulación. Altman ha dicho a los políticos estadounidenses que la regulación debe aplicarse principalmente a los futuros sistemas de IA más poderosos. En cambio, la Ley de IA de la UE se centra mucho más en las capacidades actuales del software de IA.

Recursos AI

Descubre las mejores herramientas y últimas tendencias en inteligencia artificial.

Recursos AI

¡Genial! Te has inscrito con éxito.

Bienvenido de nuevo! Has iniciado sesión correctamente.

Te has suscrito correctamente a Recursos AI.

¡Éxito! Comprueba en tu correo electrónico el enlace mágico para iniciar sesión.

Éxito! Su información de facturación ha sido actualizada.

Su facturación no se actualizó.