California avanza hacia la regulación de la inteligencia artificial

Ciudad de México  

Sergio F Cara (NotiPress/Composición)

California debe decidir el destino de la ley que prevé posibles catástrofes generadas por IA

 

California dio un paso significativo en la regulación de la inteligencia artificial(IA) con la aprobación del proyecto de ley SB 1047 por parte del Senado estatal. Esta legislación, impulsada por el senador Scott Wiener, busca prevenir posibles desastres catastróficos ocasionados por IA.Ahora espera la aprobación o el veto del gobernador Gavin Newsom.

Según NotiPress, El proyecto SB 1047 fue diseñado con el objetivo de evitar incidentes como ciberataques que superen los 500 millones de dólares en daños o la pérdida de vidas humanas causados por el mal uso de modelos de IA. A pesar de que actualmente la tecnología no tiene tal capacidad destructiva, la legislación propone medidas preventivas. Una de las más destacadas es la responsabilidad directa que tendrían los desarrolladores por los daños que pudieran ocasionar sus modelos, además de exigir la inclusión de un "interruptor de apagado" en los sistemas para desactivarlos en caso de que sean considerados peligrosos.

La ley generó reacciones mixtas, especialmente en Silicon Valley, donde algunos lo ven con incertidumbre. El socio general de Andreessen Horowitz, Martin Casado, señaló en una entrevista con TechCrunch: "Esto cambia el precedente con el que hemos tratado la política de software durante 30 años". Otros sectores, como la Cámara de Comercio de Estados Unidos, solicitaron a Newsom que vete la ley, argumentando que la IA es crucial para el crecimiento económico del país y que esta normativa podría frenar la innovación en el sector.

Si la ley es finalmente aprobada, su implementación comenzaría en 2025, cuando las empresas tecnológicas tendrían que presentar informes de seguridad sobre sus modelos de IA. La ley también propone la creación de una Junta de Modelos Fronterizos, que supervisaría estos informes y establecería directrices para garantizar el desarrollo seguro de la IA. A partir de 2027, se prevé que dicha Junta emita recomendaciones más detalladas sobre cómo operar estos modelos de manera segura.

En caso de que Newsom decida vetar la legislación, es probable que los reguladores federales intervengan en la creación de una normativa para la IA. Recientemente, empresas como OpenAI y Anthropic acordaron colaborar con el AI Safety Institute, un organismo federal, para establecer estándares de seguridad en el desarrollo de esta tecnología a nivel federal.

 

Inteligencia ArtificialLeyEstados Unidos

¿Te gustó el contenido?

 

 

Recibe las noticias por correo

Entérate de la economía, noticias internacionales y el impacto en los negocios. Aviso de privacidad