Para aquellos que piensan que los grandes creativos mueven la historia del mundo, esta es una noticia para nada buena. Las industrias creativas, los intelectuales y el mundo de los contenidos debieran haber sido los últimos en caer bajo la amenaza de la inteligencia artificial pero resulta que hoy, ésta se cierne sobre ellos. Y si es así en este ámbito, imagínate las otras…
Desde hace ya días el sindicato de actores de Hollywood se declaró en huelga y se unió a una huelga de guionistas que ya estaba en curso. Esta situación es, importante decirlo, la primera vez que estos sindicatos se han plegado a una huelga simultáneamente en seis décadas. ¿Y qué hay detrás de esto? Pues bien, la inteligencia artificial se ha convertido en la gran manzana de la discordia para los creativos de varias industrias.
Los guionistas protestan contra el uso de modelos de lenguaje de IA por parte de los estudios para escribir guiones. Nada trivial. Los actores, por su parte, están en huelga luego de rechazar una propuesta de las compañías de streaming que buscan usar tecnología de IA para escanear rostros y cuerpos de personas, y poseer el derecho de usar estas copias digitales de estilo deepfake sin consentimiento o compensación a perpetuidad.
Es obvio que lo que está detrás de todo esto es el lógico temor de que seamos reemplazados por softwares y algoritmos y nos inunda la amarga sensación de que hay muy poco que podamos hacer al respecto. No es de extrañar. La laxitud de la sociedad para regular o al menos poner coto a los excesos del auge tecnológico en las últimas dos décadas han hecho que las empresas de IA se hayan sentido seguras construyendo y lanzando productos que pueden traspasar fronteras muy complejas y dañar industrias completas sin que exista el más mínimo debate o por último, se sugieran medidas de mitigación.
A luchar por la justicia
Sin embargo, esto podría estar por cambiar. El auge de la IA ha revivido el entusiasmo de los políticos estadounidenses por aprobar leyes específicas de IA. Y aunque sabemos que las legislaciones suelen ir muy por detrás de la realidad, las leyes vigentes ya entregan muchas municiones a organizaciones o gremios que reclaman ser dañados en sus derechos por las gigantes tecnológicas. Y este último movimiento sindical es un signo de esto.
De hecho, la Comisión Federal de Comercio de Estados Unidos, (FTC, Federal Trade Comission), ya abrió una investigación para determinar si OpenAI violó las leyes de protección al consumidor al recopilar los datos en línea de las personas para entrenar a su popular chatbot de inteligencia artificial ChatGPT.
Otro caso interesante es el que los artistas, autores y la compañía de imágenes Getty están demandando a empresas de inteligencia artificial como OpenAI, Stability AI y Meta, alegando la violación de la legislación sobre derechos de autor al entrenar a sus motores de AI para su desarrollo basados en sus trabajos, sin ningún tipo de reconocimiento o pago alguno.
Según un artículo del MIT Technólogy Review, tanto una investigación iniciada por la FTC como la gran cantidad de demandas han puesto la mira sobre el uso de datos de AI, los cuales se basan en buscar información en Internet para desarrollar sus modelos de aprendizaje sin mediar autorización ni compensación alguna. De hecho, si haces una petición a tu ChatGPT (¿lo tienes ya?) verás que la mayoría de las respuestas están generadas a partir de información, investigaciones y conclusiones de miles de personas alrededor del mundo cuyo trabajo ha alimentado un servicio que está lucrando con ese trabajo.
Estos casos responderán la esencial respuesta sobre cómo se les permite comportarse legalmente a las empresas de IA a partir de las demandas colectivas contra GitHub y Microsoft, OpenAI, Stability AI y Meta.
La realidad es que las empresas de IA tienen muchísimas opciones para construir sus modelos de aprendizaje y qué datos usar para hacerlo. El punto es si eso les importa o no. Lo cierto en todo caso es que los poderes judiciales de los distintos países puedan obligar a estas empresas a transparentar cómo han construido esos modelos y qué tipo de datos se han incluido en sus respuestas. Aumentar la transparencia en torno a los modelos de IA es un movimiento bienvenido y ayudaría a acabar con el mito de que la IA es algo mágico. Pero como ya uno puede imaginarse, es una medida altamente controversial.
Aún así, las huelgas, investigaciones y casos judiciales en Estados Unidos y Europa podrán ser, a final de cuentas, la punta de lanza para abrir el camino para que intelectuales, artistas, autores y otros sean recompensados, a través de un sistema de licencias y royalties por el uso de su trabajo como “alimentadores” de la IA.
Estos casos son las primeras señales de un tema que promete ir creciendo de forma exponencial, tan rápido como esa misma tecnología y en este caso, los usuarios seremos parte de esa controversia. Porque ya no se trata de consumir un bien como un software o una película cuya producción se te vende por una compañía cuyo insumo para hacerlo es algo que ellos necesariamente deben comprar. En este caso, el servicio que estás usando se ha producido usando “insumos” que no fueron pagados y sobre cuyos “productores” jamás se enteraron de su uso.
La pregunta del millón.
En simple.. ¿podría ser que como usuario de Bard o ChatGPT eres cómplice de robo intelectual?
En rigor, sí. Pero claramente es una pregunta compleja de responder. Y aunque para quienes vivimos en Chile, ciertamente esta discusión será algo que tardará tiempo en afectarnos, son hoy temas que aún ni siquiera logramos configurar bien de qué se tratan. Pero como esto se mueve a una velocidad sorprendente, no es extraño que las áreas legales de nuestras grandes empresas estén en unos pocos años más enfrentando sus complejidades.
Sin ir más lejos, hace sólo meses conocimos por primera vez una cosa llamada ChatGPT. Y mira ya donde estamos.