La Casa Blanca anunció un nuevo acuerdo con empresas tecnológicas para desarrollar IA segura, confiable y fiable.
El acuerdo, que incluye a Adobe, IBM, Nvidia, Cohere, Palantir, Salesforce, Scale AI y Stability AI, establece una serie de principios y prácticas para el desarrollo de IA.
Las empresas acuerdan, entre otras cosas:
- Realizar pruebas internas y externas de sus sistemas de IA, antes de su lanzamiento comercial.
- Invertir en salvaguardas para proteger sus datos y modelos de IA.
- Compartir información sobre los riesgos de la IA con el gobierno y la sociedad civil.
- Permitir la divulgación de vulnerabilidades por terceros.
- Marcar con una marca de agua el material generado por IA.
- Informar públicamente los riesgos asociados con sus sistemas de IA.
- Investigar los riesgos sociales de la IA.
- Desarrollar sistemas de IA "para ayudar a resolver los mayores desafíos de la sociedad".
El acuerdo es voluntario, por lo que no hay castigos para las empresas que no lo cumplan. Sin embargo, la Casa Blanca espera que ayude a garantizar que la IA se desarrolle de manera responsable y ética.
Las implicaciones del acuerdo para las empresas y la sociedad son significativas.
Para las empresas, el acuerdo representa una oportunidad de demostrar su compromiso con la seguridad y la ética de la IA. También puede ayudar a las empresas a evitar el escrutinio regulatorio y la pérdida de confianza del público.
Para la sociedad, el acuerdo puede ayudar a garantizar que la IA se desarrolle de manera que sea segura, justa y beneficiosa para todos.
El acuerdo también enfrenta algunos desafíos.
Uno de los desafíos es asegurar que las empresas cumplan con los términos del acuerdo.
Otro desafío es equilibrar los intereses de las empresas, el gobierno y la sociedad civil.
A pesar de estos desafíos, el acuerdo es un paso importante en la dirección correcta. Es un compromiso de las empresas tecnológicas para desarrollar IA de manera responsable y ética.