Aunque el término Inteligencia Artificial (AI, por sus siglas en inglés) se remonta al menos a los años 501 , ha captado la atención general en los últimos meses. Los sorprendentes resultados de GPT-4 y los text-to-image-generators como Dall-e, Midjourney o Stable Diffusion los han puesto en boca de todos. Coincidiendo con la troleada de las supuestas fotos de Donald Trump siendo arrestado o del Papa Bergoglio luciendo un estiloso abrigo, se ha hecho pública una carta abierta firmada por científicos, expertos, empresarios y gente que pasaba por allí demandando una moratoria de seis meses en el desarrollo de IAs más potentes que GPT-42.
Entre los firmantes de la carta se han publicitado los nombres de Elon Musk o Steve Wozniak, pero hay muchos otros nombres de peso directamente relacionados con el desarrollo de IAs. Falta sin embargo uno que parece fundamental: Sam Altman, CEO de OpenAI y responsable precisamente de los modelos GPT. Jaron Lanier, gurú tecnológico que ha expresado críticas a estas tecnologías, es otra ausencia tan llamativa que algunos medios lo han incluido por defecto.
Entre las preocupaciones expresadas en la carta abierta están:
- «la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados».
- Dichas planificación y gestión no se están abordando al ritmo impuesto por los recientes avances tecnológicos.
- El reemplazo de los humanos por IAs en el desarrollo de tareas generales.
- «que las máquinas inunden nuestros canales de información con propaganda y falsedades».
- El riesgo de «perder el control de nuestra civilización».
Al margen de que nos pueda llenar de orgullo y satisfacción leer a grandes paladines del neoliberalismo como Musk pedir una solución reguladora (es decir, política) a la aceleración tecnológica, la carta ha recibido críticas3 por varias razones:
- Algunos de los peligros que se denuncian pertenecen más a la ciencia-ficción que al desarrollo tecnológico actual.
- Riesgos más presentes y tangibles parecen interesadamente ignorados: la explotación laboral efectuada para catalogar los datasets que nutren los modelos de aprendizaje; la apropiación masiva de datos; la reproducción de sesgos ideológicos; la concentración de poder en pocas manos.
- La alineación de la carta con tesis del longtermism, una reciente ideología que pone énfasis en la supervivencia a largo plazo de la humanidad, ignorando las condiciones de vida a corto plazo.
- La petición es poco realista, en el sentido de que implicaría poner de acuerdo a demasiados actores con intereses directos en el asunto, incluyendo empresas y gobiernos.
La falta de un conocimiento adecuado sobre qué es y qué no es IA o cuál es su actual estado de desarrollo está provocando fuertes adhesiones y rechazos a la carta, y por extensión a las IAs. Que entre los firmantes se encuentren líderes tecnológicos de Meta, Google o Microsoft, que recientemente han acelerado sus proyectos en ese campo a raíz del éxito de GPT-3 y GPT-4 hace sospechar de las intenciones de al menos una parte de los firmantes: ¿frenar al competidor más aventajado mientras ellos se ponen a día?
Pero ni la carta ni las preocupaciones que esta tecnología suscita deben tomarse como un «todo o nada». Algunas de las críticas que el texto hace a las IAs, al igual que las expresadas en el paper conocido como Stochastic Parrots4 están justificadas y es necesario tanto reflexionar como regular su impacto en el presente y el futuro.
El principal punto en el que es difícil no estar de acuerdo es en la necesidad de regulación. Demasiadas veces hemos visto cómo los intereses particulares de cada vez menos (pero más grandes) empresas se imponen a los del bien común. No hay ninguna razón para esperar que en este caso vaya a ser diferente. Por ser concretos: a finales del año pasado se produjo una protesta de artistas (principalmente ilustradores) indignados por la facilidad con la que los generadores de imágenes a partir de texto eran capaces de imitar sus estilos o sus personajes. Facilidad que se deriva de que esos generadores se alimentan de la obra de esos artistas, usada sin su permiso. Podemos discrepar sobre muchos argumentos de esa protesta, pero no sobre el derecho de los creadores a no contribuir a una tecnología que puede volverlos irrelevantes. Ese es un aspecto concreto que puede y debe ser regulado.
Otro, aún más grave, es la facilidad con la que pueden distorsionar la información, en especial en un contexto en el que los destinatarios de la misma son cada vez más acríticos (de ahí la facilidad con la que las fotos de Trump y Bergoglio han podido colar). Pero no nos engañemos: no estamos hablando aquí de un riesgo sino de una realidad, no necesariamente relacionada con el desarrollo de IAs potentes. Hace años que conocemos el papel que cumplen las redes sociales en campañas masivas de desinformación, en especial en periodos preelectorales. El escándalo de Cambridge Analytica y Facebook, la posible intromisión rusa en las elecciones presidenciales de 2016 en EEUU o el papel de las redes sociales en el Brexit, son anteriores a la reciente explosión de los Large Language Models. Facebook y Twitter no son en absoluto ajenos al problema que ahora denuncian. Sus algoritmos son responsables directos de la polarización ideológica, de la difusión de bulos y del auge de ideologías tóxicas al crear un ecosistema que las favorece. Ese es otro aspecto concreto que debe ser regulado y vigilado, no sólo en el contexto de las IAs, sino de la comunicación en general.
También se suceden noticias que alertan de despidos masivos, de sectores enteros en los que los trabajadores serán desplazados por sistemas informáticos. ¿Es hora ya de hablar de reducción de la jornada laboral, de impuestos a determinadas tecnologías, de renta básica…?
Lo mismo ocurre con las condiciones de trabajo de quienes revisan y etiquetan la información que nutre a estos modelos de aprendizaje, tareas subcontratadas en Kenia, Uganda e India a través de una empresa con sede en San Francisco 5. También esto debe regularse, pero ¿sólo en relación con el tema que nos ocupa?
Pero el fantasma de una superinteligencia autoconsciente capaz de esclavizar a la humanidad no está en el horizonte. Los riesgos reales son más mundanos y más inmediatos. Mirando la cosa con algo más de perspectiva, lo que debe ser analizado, regulado y vigilado son los mecanismos de concentración de poder posibilitados por el capitalismo tecnológico. La apropiación de información ajena, la manipulación de la información y la explotación de trabajadores mediante la deslocalización de recursos son problemas graves y reales, y el uso de Inteligencias Artificiales puede agravarlos y extenderlos. Pero son problemas que hay que regular en un contexto más amplio.
Así que bienvenida sea esta llamada a la política, a la prudencia y a la contención, aunque venga de quienes han lanzado sus caballos al galope en dirección opuesta. Pero creo que la carta, además de ser de difícil aplicación, yerra en sus objetivos. Quizá sirva como toque de atención que promueva una reflexión menos interesada, que abarque ámbitos más ambiciosos y que embride actividades empresariales potencialmente nocivas.
¿Firmarían Musk y Wozniak un texto en ese sentido?
—-
1: John McCarthy, 1956, Conferencia de Dartmouth
2: Pause Giant AI Experiments: An Open Letter >> https://futureoflife.org/open-letter/pause-giant-ai-experiments/
3: Statement from the listed authors of Stochastic Parrots on the “AI pause” letter >> https://www.dair-institute.org/blog/letter-statement-March2023
4: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? >> https://dl.acm.org/doi/10.1145/3442188.3445922
5: OpenAI se aprovechó de la explotación laboral en Kenia para mejorar ChatGPT >> https://hipertextual.com/2023/01/openai-explotacion-laboral-kenia-chatgpt