Nueva York aprueba un proyecto de ley para prevenir desastres provocados por la IA
El estado de Nueva York ha dado un paso significativo hacia la regulación de la inteligencia artificial (IA) al aprobar un proyecto de ley que busca prevenir desastres asociados con los modelos de IA de vanguardia, desarrollados por empresas como OpenAI, Google y Anthropic. Este proyecto, conocido como el RAISE Act, se presenta como una respuesta a los crecientes temores sobre los riesgos que conlleva la evolución rápida de la IA.

Objetivos del RAISE Act
El RAISE Act tiene como objetivo principal establecer un conjunto de estándares de transparencia legalmente obligatorios para los laboratorios de IA en Estados Unidos. Algunos de los hechos más relevantes sobre el proyecto de ley son:
- Se busca prevenir escenarios de desastre que puedan resultar en la muerte o lesión de más de 100 personas, o daños superiores a $1,000 millones.
- El proyecto contempla la publicación de informes exhaustivos sobre la seguridad y el comportamiento de los modelos de IA de vanguardia.
- Las empresas de tecnología que no cumplan con estos estándares podrían enfrentarse a multas civiles de hasta $30 millones.

El contexto en el que surge el RAISE Act
La aprobación del RAISE Act se produce en un momento en que la seguridad en la IA ha perdido protagonismo frente a la velocidad e innovación promovidas por la industria tecnológica. La ley es vista como una victoria para el movimiento por la seguridad de la IA, que incluye a destacados defensores de la seguridad como el laureado con el Premio Nobel Geoffrey Hinton y el pionero en investigación de IA Yoshua Bengio.
El senador del estado de Nueva York, Andrew Gounardes, coautor del proyecto, afirmó en una entrevista que el RAISE Act ha sido diseñado para evitar inhibir la innovación entre startups y académicos, una crítica común hacia otras legislaciones propuestas, como el controvertido proyecto de ley de seguridad de IA de California, SB 1047, que fue finalmente vetado.
Gounardes enfatizó: “La ventana para implementar medidas de seguridad se está reduciendo rápidamente dado lo veloz que está evolucionando esta tecnología. Las personas que conocen mejor la IA afirman que estos riesgos son increíblemente probables [...] Eso es alarmante.”

Implicaciones para Europa y España
La iniciativa de Nueva York podría tener repercusiones significativas en Europa y en el mercado español. La regulación de la IA es un tema candente en la Unión Europea, donde se están discutiendo marcos normativos similares que buscan abordar los riesgos de la inteligencia artificial. La adopción de estándares de transparencia en Nueva York podría inspirar a legisladores europeos a acelerar sus propios esfuerzos en este ámbito.
Además, la creciente preocupación por la seguridad de la IA podría influir en las decisiones de inversión y desarrollo de empresas tecnológicas en España y en el resto de Europa, donde se busca un equilibrio entre innovación y responsabilidad. Las empresas que operan en ambos lados del Atlántico tendrán que adaptarse a las normativas cada vez más estrictas, lo que podría generar un cambio en la dinámica del mercado.
Conclusión
La aprobación del RAISE Act en Nueva York marca un hito importante en la regulación de la inteligencia artificial, estableciendo un precedente para futuras legislaciones tanto en Estados Unidos como en Europa. A medida que la tecnología continúa avanzando, es fundamental que se implementen medidas adecuadas para garantizar la seguridad y la responsabilidad en su desarrollo y uso. La atención a los riesgos asociados con la IA es crucial para prevenir desastres que puedan tener consecuencias devastadoras.
Fuentes
- [1] Información sobre el RAISE Act y sus objetivos.
- [2] Declaraciones del senador Andrew Gounardes sobre la importancia de la regulación de la IA.
- [3] Contexto sobre la situación actual de la seguridad en IA en Estados Unidos y Europa.
Sobre la autora
Martina Torres es una reportera sénior de noticias internacionales para ElPulsoGlobal, especializada en asuntos globales y política internacional.