La IA generativa de Apple puede ser la única entrenada de forma ética (y legal)

¡Apple quiere reconocer el valor de los derechos de autor en el entrenamiento de su IA!

La IA generativa de Apple puede ser la única entrenada de forma ética (y legal)
Apple previene problemas legales antes de lanzar sus funciones basadas en IA

Apple no se subió a la ola de las actualizaciones basadas en Inteligencia Artificial que surgieron en 2023. Esperó y desarrolló novedades como las que esperamos conocer en iOS 18, tratando de evitar los errores de la competencia. Así, Apple ha desarrollado un método para evitar las demandas por derecho de autor, una de las peleas más controvertidas que se disputan en el campo de la IA.

Las demandas relacionadas con la IA generativa y los derechos de autor contra OpenAI, Alphabet, Amazon, Meta, Microsoft, han escalado ante la exigencia de acreditación y compensación por parte de los editores, cuyas obras se aprovechan en el entrenamiento de la IA generativa. Pero Apple ha estado trabajando en prevenir un escenario similar.

Apple negocia licencias de derechos de autor para su IA generativa

Hasta ahora se sabe que Apple desarrolló su modelo de aprendizaje de idiomas con funcionalidad básica en el dispositivo que preserva la privacidad porque no requiere una conexión a Internet para el análisis de texto básico.

Esto significa que el LLM (grandes modelos de lenguaje) en el dispositivo no puede conectarse a una base de datos e identificar contenido protegido por derechos de autor sin conexión, aunque es probable que funciones más avanzadas como la generación de texto incluyan tales comprobaciones y conexiones.

Sin embargo, para evitar problemas similares de derechos de autor Apple ha estado negociado licencias por con publicaciones de noticias como: Conde Nast, Vogue y The New Yorker y otras cadenas importantes como IAC y NBC News. Según un informe de The New York Times, desde la manzana mordida podrían pagar hasta 50 millones de dólares por los derechos.

La IA "genera" pero no paga

De acuerdo con una publicación de AppleInsider, la empresa PatronusAI investigó el ritmo al que los chatbots de IA generan contenido protegido por derechos de autor. Para ello comparó los modelos de IA de ChatGPT-4 de OpenAi, Llama 2 de Meta, Mixtral de Mistral y Claude 2.1 de Anthropic.

El estudio detectó que las tasas de generación de contenido protegido por derechos de autor eran altas. La compañía también lanzó su propia herramienta, conocida como CopyrightCatcher, que detectaría posibles violaciones de derechos de autor en los modelos de IA generativa.

Desde que se confirmó que Apple presentará sus funciones basadas en IA este 2024, también se ha hecho énfasis en que será una AI única, rápida y respete la privacidad. Pero cumplir con estas características implica un reto técnico y económico que hasta ahora, Apple está dispuesta a asumir.

Para ti
Queremos saber tu opinión. ¡Comenta!