La seguridad por encima de todo: California regulará el entrenamiento de la IA

¡Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera intensifica el debate sobre la regulación de la IA!

La seguridad por encima de todo: California regulará el entrenamiento de la IA
La medida se centra en proteger a los usuarios del mal uso de la IA
Publicado en Tecnología

Los dilemas éticos que plantea el uso de la Inteligencia Artificial serían interminables sin un marco legal que los regule. En este sentido, las autoridades de California en Estados Unidos han dado un primer paso, convirtiéndose en el primer estado estadounidense en aprobar un proyecto de ley que regula el entrenamiento de modelos de IA de gran escala.

El proyecto de ley SB 1047, conocido como la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera, establece una serie de requisitos para las empresas que desarrollan y entrenan estos modelos. Por supuesto, la medida, ya ha generado debate entre las empresas que la promueven.

La IA no escapa de la ley

Según los senadores a favor del proyecto, el mismo busca actuar como un “salvaguardas para proteger a la sociedad” del mal uso de la IA.

Algunas de los cambios que plantea la nueva ley se centran en permitir acciones como:

  • Desactivar rápidamente y por completo un modelo de IA si se considera que no es seguro. Los desarrolladores deberán asegurar que sea posible.
  • Los modelos de lenguaje deberán estar protegidos contra “modificaciones inseguras posteriores al entrenamiento” o cualquier cosa que pueda causar “daños críticos”.

Varios expertos ya se han manifestado en contra y temen que las nuevas regulaciones puedan frenar la innovación y dificultar el trabajo de los desarrolladores independientes. Pequeños desarrolladores y empresas como OpenAI han manifestado su preocupación por las dificultades que podrían enfrentar para cumplir con todos los requisitos establecidos en la ley y las sanciones que conlleva.

Por su parte, el profesor Hinton, exdirector de inteligencia artificial en Google, elogió el proyecto de ley por considerar que los riesgos de los sistemas de inteligencia artificial potentes son “muy reales y deben tomarse extremadamente en serio”, según 9to5mac.

Naturalmente, Apple muestra un gran interés en estas regulaciones, dado que la compañía está desarrollando activamente las funciones de Apple Intelligence, programadas para su lanzamiento público este otoño con las actualizaciones iOS 18.1 y macOS Sequoia 15.1., aunque la versión beta de iOS 18.1 ya cuenta con algunas funcionalidades.

Sin embargo, queda esperar hasta fines de septiembre para decidir si aprueba o veta el proyecto de ley.

Sentando precedentes

Con esta ley, California se posiciona como líder en la regulación de la IA. Esto podría influir en la legislación a nivel federal, y luchar contra los riesgos generados por el mal uso de la IA, como la generación de desinformación o la creación de imágenes y vídeos distorsionados (deepfakes). Este último, una gran preocupación que dejó en evidencia la falta de regulación, con el lanzamiento de la herramienta de Google Pixel Studio y el revuelo que causó al permitir la generación de imágenes violentas.

A nivel federal, la administración Biden ha presentado una serie de directrices voluntarias para las empresas tecnológicas.

Mientras que en marzo de este año, la Eurocámara aprobó la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación.

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!