Reivindicación de la ÉTICA

Yo sueño que estoy aquí
destas prisiones cargado,
y soñé que en otro estado
más lisonjero me vi.
¿Qué es la vida? Un frenesí.
¿Qué es la vida? Una ilusión,
una sombra, una ficción,
y el mayor bien es pequeño:
que toda la vida es sueño,
y los sueños, sueños son
.

( ChatGPT-10 )

.

.

            ¿Podrá la IA escribir los clásicos de finales del siglo XXI? ¿Podrán  los algoritmos y los bots “artificiales” plasmar los sentimientos y las sensibilidades de las personas “humanas”?   ¡Miedo me da!       ¡No ni ná!   Dicen los entendidos  que la nueva inteligencia artificial está basada en las redes neuronales, en la robótica, en el deep learning, etc. pero todo esto hoy  día está  totalmente  alejado aún de las técnicas literarias al uso.  Es importante considerar que ChatGPT no llega  a entender totalmente las palabras que aprende, pues todo su conocimiento es intuitivo, ya que a base de leer y procesar textos es como aprende lo que es el lenguaje. Pero no tienen la capacidad de reflexión o de pensamiento racional. Por eso precisamente aprende a imitar sonetos, pero no es capaz de darse cuenta explícitamente, a  día  de hoy, de que hay una regla que relaciona determinado tipo de rima con determinado número de versos o que una metáfora tiene un significado diferente dependiendo  del contexto.

¿Cómo funciona? Por referencias sé que una vez que creas tu usuario (previa introducción de tu email y teléfono móvil), se abre un chat en el que puedes pedirle a ChatGPT que genere textos muy diversos. Puedes “pegar” un artículo y pedirle que lo resuma de forma que lo entienda un estudiante de primaria, y también puede desarrollar una narración o un texto dándole una serie de presupuestos: puedes pedirle que te explique un concepto complejo en un párrafo, que escriba la vida de Cervantes en verso, que escriba guiones con el estilo o la longitud que quieras, que haga letras de canciones, que cuente un chiste…

De entrada, mi respuesta a este vértigo es: ¡No!  No quiero un algoritmo, un bot, que  escriba por mí, que invente por mí, que plasme sentimientos por mí.  Luego viene la pregunta: ¿Chatgpt y la IA tienen cabida en la literatura, en  la creatividad?… Hace unos días se conoció una noticia que, a decir verdad, era esperable: en la tienda de Amazon cada vez se venden más libros escritos por inteligencia artificial, y más precisamente por el ChatGPT, un bot que en unos meses o días ha generado ya más libros que varios escritores de reconocido prestigio. De acuerdo con la agencia Reuters, solo en febrero se han subido más de doscientos libros con su firma y no es difícil sospechar que debe haber muchos otros camuflados en otros nombres, porque no todos tienen la nobleza de compartir la autoría. La idea, por supuesto, no es nueva. El primer libro escrito por una máquina se publicó en 1984 con el título The policeman´s beard is half constructed, pero el resultado no fue muy satisfactorio, y sobre todo en términos de coherencia, pues hay párrafos que parecen estar hechos con la técnica del “cortar y pegar”, aunque ningún programa de rastreo de plagio  pueda detectarlo. La aparición de ChatGPT, creada por la empresa californiana OpenAI, que ha recibido miles de millones de dólares de Microsoft, plantea agudos debates en torno a la propiedad intelectual y el fraude académico.

Según  algunos, esta nueva tecnología lleva consigo una democratización, pero no de la escritura —a la escritura más bien la banaliza—, sino de la autoría, porque ya no hace falta escribir para ser autor. Hasta hace poco, cualquier «idiota» —Eco dixit— podía decir cualquier cosa a través de las redes sociales. Hoy cualquiera puede publicar un libro, a partir de este u otros chatbots que operan como escritores anónimos. Según un artículo publicado recientemente por Neil Clarke, el editor de Clarkesworld (reconocida revista de ciencia ficción), más de una tercera parte de las historias remitidas a la revista a lo largo de 2023 han sido realmente escritas por alguna inteligencia  artificial.

Esto no se parece en nada a la  escritura automática de los surrealistas de  comienzos del  siglo XX, a ese fluir de conciencia como proceso o resultado de la escritura, que no proviene de los pensamientos conscientes de quien escribe. Era una forma de hacer que aflora el inconsciente, dejando fluir los pensamientos sin ninguna coerción moral, social ni de ningún tipo. El objetivo era alejarse totalmente de la razón y en ocasiones se realiza en estado de trance, aunque no es necesario que sea así. Pero detrás  de  todo esto hay una persona, una mente sintiente. Como se dice en el diario El País (10/4/23), el escritor Jorge Carrión acaba de publicar Los campos electromagnéticos. Teorías y prácticas de la escritura artificial (Caja Negra), un libro que ha escrito con un GPT-2 y 3 y donde su punto de partida son Los campos magnéticos, de André Breton y Philippe Soupault, considerado el nacimiento de la poesía automática, en 1919. En su libro compara la llegada y la influencia del grupo surrealista sobre la literatura y la cultura en las primeras décadas del siglo XX, con la expansión de los modelos de lenguaje: “Si el paso entre la escritura consciente y la del inconsciente caracterizó aquellos años, la escritura producida por aprendizaje automático y otras formas de inteligencia artificial está imprimiendo una vibración particular a los nuestros”.

En la revista ICON del citado diario, asegura que “los algoritmos escriben muy bien, redactan casi a la perfección, acceden a zonas que están vedadas para los humanos, pero todavía son incapaces del fulgor, de la metáfora, del conocimiento de la mejor poesía. Eso no quita que no escriban mejor ya que muchos poetas de la experiencia y su evolución, el poeta influencer”. Sin embargo, en el capítulo de introducción de su libro no duda en afirmar que la llegada de una tecnología capaz de escribir buena literatura es solo cuestión de tiempo: “La inteligencia de los algoritmos, los robots, las redes neuronales o los programas o fórmulas que todavía no existen de inteligencia artificial, y que por tanto carecen de nombre, acabarán siendo capaces de la metáfora y de la ironía, de formas nuevas, membranosas e indudablemente literarias”.

            Otro  campo en el que la IA empieza a preocupar es en el de la educación, donde ya  se apuntan muchos problemas y  disfunciones (aunque alguna ventaja tendrá): al  generar contenidos automatizados, las habilidades  del pensamiento crítico y la creatividad del alumnado  se resentirán; estos textos automatizados de ChatGPT pueden propagar información falsa o engañosa si no se utilizan adecuadamente; además su uso en la educación puede perpetuar desigualdades educativas, ya que no todos los estudiantes tienen acceso a la tecnología y la capacitación necesarias. También puede llevar a la homogeneización del contenido educativo, lo cual puede reducir la diversidad y la inclusión en la educación, etc., etc. 

            Y si aumentamos el  zoom y nos  alejamos de las cuestiones literarias y educativas, vemos  que esta nueva tecnología  puede suponer múltiples peligros para las relaciones entre  nosotros y para casi cualquier aspecto de nuestra vida: la filtración de los datos personales pueden comprometer el bienestar de las personas; la generalización de informaciones falsas y fakes; el impacto  en  el mercado laboral por la consiguiente pérdida de empleos; la falta de transparencia y la extrema vigilancia y posterior manipulación por parte de las organizaciones privadas o gubernamentales con acceso a la información (Google, Meta, Microsoft…) o  las manipulaciones y vulnerabilidades que se presentan o se  puedan presentar en el futuro.

En 2021, entrevistaron en el New York Times a Ted Chiang, uno  de los grandes escritores  vivos de ciencia ficción (https://www.nytimes.com/2021/03/30/podcasts/ezra-klein-podcast-ted-chiang-transcript.html ). Y allí el  escritor dio en  la clave de todo este asunto, yendo a la raíz ideológica del problema: “En general, pienso que la mayoría de los temores en torno a la inteligencia artificial (IA) se aclaran si los planteamos como miedo al capitalismo”, dijo Chiang. “Creo que esta verdad se aplica por igual a la mayoría de los temores que despierta la tecnología. La mayoría de los miedos o ansiedades que sentimos con respecto a la tecnología se entienden mejor si los explicamos como temor o ansiedad por la forma en que el capitalismo utilizará la tecnología en nuestra contra. Lo cierto es que la tecnología y el capitalismo están tan conectados que es difícil separarlos”. A comienzos del siglo XXI y  debido a la aceleración con que se presentan los  hechos, la clave de todo esto es  que la IA  pueda acabar  siendo dominada por  los  de siempre, por la élite capitalista, por  el tecnocapitalismo, por el capitalismo cognitivo o como quieran llamarlo.

Si hacemos la lectura contraria, también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial —y, en muchos casos, ya la utiliza— es inquietante. La advertencia de Chiang hace notar un vacío central en nuestra perspectiva actual de la IA. Estamos tan obsesionados con la idea de descubrir qué puede hacer la tecnología, que no nos hemos detenido a considerar las preguntas más importantes: ¿cómo se utilizará? y ¿quién tomará esa decisión?

Y ante esta situación actual sólo  tenemos una  herramienta  fundamental del pensamiento humano: la ética. Platón (La República, Fedro), Aristóteles (Ética a Nicómaco),  los estoicos, Spinoza, Kant y su imperativo categórico, etc. son los referentes clásicos que hemos de tener en cuenta a la hora de llevar a  cabo la programación del algoritmo de  la IA. Y todo  esto con un tiempo reposado, sin aceleraciones, asentando fuertemente estas bases éticas. Con estos presupuestos éticos, estas tecnologías pueden ayudar en el proceso de toma de decisiones y así generar políticas más igualitarias y eficientes. No solo eso, un uso responsable de la IA podría mejorar nuestros empleos, servicios de salud, calidad educativa, etc. Desde que se empezó a hablar del potencial para mejorar el bienestar social que tiene la IA, muchos gobiernos y emprendedores han dirigido su atención hacia la solución de un sinnúmero de problemas sociales y creación de políticas públicas efectivas.

De aquí las recientes recomendaciones de la UNESCO de noviembre de 2021 sobre el fundamental papel de la ética en la IA que ( «Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación y la orientación normativas de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología…») y la reciente carta que muchísimas  personalidades del mundo de la ciencia y las humanidades ( el propio Elon Musk, el historiador Yuval Noah Hariri, o el cofundador de Apple, Steve Wozniak, lo cual puede  hacernos sospechar de sus verdaderos propósitos), han ratificado en marzo de 2023 en las páginas del Future of Life Institute ( https://futureoflife.org/ ), invitando a repensar éticamente y ralentizar la vertiginosa carrera en la  que estamos  sumidos,  y  que por  su  interés presentamos  traducida:

Los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA. Como se indica en los Principios de IA de  Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos adecuados. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA han visto a los laboratorios de IA atrapados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales,[3] y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más astutas, obsoletas y reemplazarnos? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse a líderes tecnológicos no elegidos. Los sistemas de IA potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI con respecto a la inteligencia general artificial, afirma que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos». Estamos de acuerdo. Ese punto es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no puede promulgarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deben utilizar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera a modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deben reenfocarse en hacer que los sistemas poderosos y de vanguardia de hoy sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas robustos de gobernanza de IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes grupos de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; una sólida financiación pública para la investigación técnica sobre seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.

La humanidad puede disfrutar de un futuro floreciente con la IA. Después de haber logrado crear poderosos sistemas de IA, ahora podemos disfrutar de un «verano de IA» en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no apresurémonos sin preparación en un otoño.

.

Hemos preparado algunas preguntas frecuentes en respuesta a preguntas y discusiones en los medios de comunicación y en otros lugares. Puedes encontrarlos aquí.

Además de esta carta abierta, hemos publicado un conjunto de recomendaciones de políticas que se pueden encontrar aquí:    Ver artículo

.

En  definitiva,  ante el vértigo de estas tecnologías, ante los riesgos en todos los ámbitos de nuestra vida que puedan suponer, frente a la voracidad tecnocapitalista de las grandes plataformas y multinacionales,  sólo  podemos estar de acuerdo con  estas iniciativas éticas y esperar -¿ingenuamente?- que se  pueda frenar esta voracidad  de los  big data, de esta inteligencia  artificial que harán del siglo  XXI o un lugar más justo y equitativo para todos o nos arrastrará, junto a otras  plagas actuales (cambio climático, crisis económicas, autoritarismos…), por el camino de un futuro incierto y peligroso. Ad astra per aspera!

Deja un comentario