Avisos: 1.- Este breve hace referencia a una experiencia propia y no a hechos contrastados, pero diría que el escenario que preveo es plausible. 2.- La imagen que acompaña este texto es una captura de pantalla de la respuesta de ChatGPT a la pregunta «¿Cuáles son los principales peligros del uso de ChatGPT?» |
Anteayer publiqué aquí un texto reflexionando sobre la famosa carta en la que expertos de Silicon Valley piden una moratoria en su propio campo. Para hacerlo, pedí ayuda a ChatGPT. Pensé que podía ayudarme a resumir, traducir y localizar referencias. Concretamente, le pedí:
- Un resumen del texto Pause Giant AI Experiments: An Open Letter. No lo hizo mal, aunque inventó algún punto y omitió algún otro.
- Una traducción del mismo. Fiasco total: se la inventó por completo.
- Cuáles eran las principales críticas a ese texto. Psé. Algunos de los argumentos más potentes en contra los pasó por alto.
- Un resumen del texto On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. De nuevo no estuvo mal, aunque sí incompleto. Parece que resumir textos concretos se le da mejor que otras tareas.
- Principales ideas de la ideología longtermism, que tradujo como longtermismo (traducción que le acepté, aunque ahora que lo pienso hubiera sido mejor largoplacismo) y principales críticas a la misma. El resumen que me hizo coincidía más o menos con cosas que había leído, pero he leído pocas, así que no podía estar seguro sobre si fue o no adecuado.
- Datos sueltos sobre quién es tal o si tal o cual persona había firmado o no la carta. Ahí, todo correcto.
Como conclusión:
- Me fue de poca ayuda en la mayor parte de la redacción del texto. Al detectar que algunas cosas faltaban o sobraban, tuve que volver a revisar las fuentes originales.
- Por pereza, le acepté un anglicismo cuando podía haber llegado a una traducción mejor.
- Me dio un resumen que confirmaba mi conocimiento superficial sobre algo, pero ya no me fiaba.
- Sí me puso en buen camino a la hora de verificar datos concretos y facilitó la redacción de algunos párrafos.
Todo esto al redactar un texto para mi web sobre un tema que me interesa y que hago por capricho y sin plazos. Ahora imaginemos la situación de un joven periodista al que piden ‘para ya’ un artículo sobre el tema que sea, que no domina y sobre el que no tiene tiempo de documentarse. El mal periodismo no es producto de las IA, pero puede beneficiarse de ellas. ChatGPT no puede usarse como fuente fiable de información, pero sus resultados dan el pego. Sin duda desplazará a periodistas reales en la prensa basura y generará noticias falsas creíbles a un coste mucho menor. Nada de esto es atribuible en exclusiva a las inteligencias artificiales, pero podemos prever su impacto.
¿Qué podemos hacer al respecto? Apunto algunas direcciones en las que es posible actuar:
- Frenar la difusión de noticias falsas. Puede hacerse en redes sociales mediante filtros que las identifiquen y las bloqueen (Facebook es eficacísimo detectando y bloqueando pezones, no sé por qué le cuesta tanto hacer lo mismo con los bulos).
- Regular la identificación del material generado mediante IA, por ejemplo en los metadatos asociados a cualquier documento digital.
- Educar al público en la detección de bulos e información interesada. Sí, ya sé, ya sé.
El punto 3 es delicado porque juega en contra de demasiados instintos humanos (la pereza, la necesidad de confirmación…), pero los otros dos pueden alcanzarse mediante mecanismos al alcance de los Estados: cosas tan denostadas pero tan útiles como legislar, regular y hacer aplicar.