Agrandar / El gobernador de California, Gavin Newsom, hablando con los periodistas después del debate presidencial de septiembre.

Imágenes falsas

El gobernador de California, Gavin Newsom, vetó la SB-1047, una controvertida regulación de inteligencia artificial que habría requerido que los fabricantes de grandes modelos de IA impusieran pruebas de seguridad y desconectaran interruptores para evitar posibles “daños críticos”.

En un comunicado anunciando el veto El domingo por la noche, Newsom sugirió que el interés específico del proyecto de ley en el tamaño del modelo estaba fuera de lugar. “Al centrarse sólo en los modelos más caros y de mayor escala, el SB-1047 establece un marco regulatorio que podría dar al público una falsa sensación de seguridad sobre el control de esta tecnología de rápido movimiento”, escribió Newsom. “Los modelos más pequeños y especializados pueden surgir como igual o incluso más peligrosos que los modelos a los que se dirige la SB-1047, a costa de restringir la innovación que impulsa el avance a favor del bien público”.

Newsom mencionó “riesgos específicos en rápida evolución” de los modelos de IA que podrían regularse de una manera más específica, como “amenazas a nuestro proceso democrático, la difusión de información errónea y deepfakes, riesgos para la privacidad en línea, amenazas a la infraestructura crítica e interrupciones en la fuerza laboral.” California ya tiene varias leyes de IA en los libros abordar algunos de estos daños potenciales, y muchos otros estados han firmado leyes similares.

“Aunque tiene buenas intenciones, el SB-1047 no tiene en cuenta si un sistema de Al se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos sensibles”, continuó Newsom al explicar el veto. “En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre y cuando se implemente un sistema grande. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología”.

El senador estatal Scott Wiener, coautor del proyecto de ley, calificó el veto de Newsom en una publicación en las redes sociales “un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas que afectan la seguridad y el bienestar del público y el futuro del planeta”. Los compromisos voluntarios con la seguridad por parte de las empresas de IA no son suficientes, argumentó Wiener, y agregó que la falta de una regulación gubernamental efectiva significa que “todos estamos menos seguros como resultado” del veto.

Una dura batalla de lobby

La SB-1047, que fue aprobada por la Asamblea estatal en agosto, contó con el apoyo de muchas luminarias en el campo de la IA, incluidos Geoffrey Hinton y Yoshua Bengio. Pero otros dentro y alrededor de la industria criticaron el enfoque de mano dura del proyecto de ley y se preocuparon por la responsabilidad legal que podría haber impuesto a los modelos de peso abierto que fueron utilizados por otros con fines dañinos.

Poco después de que se aprobara el proyecto de ley, un grupo de líderes empresariales de California envió una carta abierta al Gobernador Newsom instándolo a vetar lo que llamaron un proyecto de ley “fundamentalmente defectuoso” que “regula el desarrollo de modelos en lugar del mal uso” y que, según dijeron, “introduciría costos de cumplimiento gravosos”. Los cabilderos de las principales empresas tecnológicas, incluidas Google y Meta, también se opusieron públicamente al proyecto de ley, aunque un grupo de empleados de esas y otras grandes empresas tecnológicas se pronunció a favor de su aprobación.

El director de estrategia de OpenAI, Jason Kwon, instó públicamente a vetar la SB-1047, diciendo en una carta abierta que la regulación federal sería más apropiada y efectiva que “un mosaico de leyes estatales”. Los primeros intentos de elaborar dicha legislación federal han estancado en el Congreso en medio de la liberación de algunos anodinos hojas de ruta de políticas e informes de grupos de trabajo.

Elon Musk, líder de xAI abogó por la aprobación del proyecto de leydiciendo que fue “una decisión difícil”, pero que al final, la IA debe regularse “tal como regulamos cualquier producto/tecnología que sea un riesgo potencial para el público”. El poderoso sindicato de actores de California, SAG-AFTRA, También se pronunció a favor del proyecto de ley.calificándolo de un “primer paso” para protegerse contra peligros conocidos como los deepfakes y el uso no consensuado de voces y semejanzas por parte de sus miembros.

En la conferencia Dreamforce 2024 a principios de este mes, Newsom se dirigió públicamente “El tipo de impacto descomunal que podría tener una legislación (como la SB-1047), y el efecto paralizador, particularmente en la comunidad de código abierto… No puedo resolverlo todo. ¿Qué podemos resolver?”

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here