Allá por la década del ‘50 el economista austriaco Joseph Schumpeter acuñó el concepto de “destrucción creativa”. En breve, esta idea sugiere que la innovación (la creatividad) es sustento y característica innata del capitalismo, una que hace mover la economía, pero al mismo tiempo genera una serie de repercusiones inesperadas (la destrucción) que deben ser asimiladas y mitigadas en el tiempo. El telar mecánico jubiló a los artesanos textiles, el motor a combustión interna a los cocheros y el email hizo lo propio con los carteros. El avance de la tecnología siempre deja heridos en el camino.
Pero lo que se viene con la inteligencia artificial de aprendizaje profundo, específicamente con los modelos de predicción de lenguaje, llevará la destrucción creativa a otro nivel. Podríamos decir que es LA destrucción definitiva. Introducirá cambios radicales en las estructuras de producción, dejando a una completa generación de trabajadores calificados “heridos en el camino”, un fenómeno como no hemos visto en un par de siglos. Y aquí estamos, cuál dinosaurios mirando cómo se acerca un meteorito gigante, sin saber muy bien qué hacer al respecto.
¿Lenguaje y robots?
La gran diferencia entre los adelantos anteriores, como el motor a combustión o el email, es que si bien esas innovaciones cambiaron el mundo y dejaron sin trabajo a cocheros y carteros, su impacto fue paulatino y medianamente acotado a ciertas profesiones. La posibilidad cierta de que ahora las máquinas puedan adquirir el uso del lenguaje cambia el juego completamente.
Y eso es precisamente lo que está pasando con la inteligencia artificial y en especial con los sistemas conocidos como LLM (Large Language Models, o en español, Grandes Modelos de Lenguaje), algoritmos que aprenden asociaciones estadísticas entre millones de palabras. Las máquinas usan el big data para “jugar a adivinar” miles de veces por segundo la palabra que falta dentro de un contexto, hasta acertar la correcta.
Aunque estos modelos son meramente imitativos (las máquinas aún no llegan al punto de contar con una inteligencia general como la de los humanos) los resultados de estas micro predicciones son simplemente impresionantes. Si todo esto parece sacado de una película de ciencia ficción, este artículo escrito completamente por un robot y aparecido hace más de un año en The Guardian quizás cambie tu percepción.
Las posibilidades de este tipo de tecnologías ya no son sólo anecdóticas. La primera aplicación que pensamos es en chatbots más inteligentes, capaces de responder de mejor forma a nuestras preguntas, sin embargo, y como publicó recientemente el New York Times, este tipo de modelos se han probado con éxito en un sinnúmero de otras disciplinas.
Sofisticados documentos legales, diagnósticos médicos, largos artículos de prensa…si una actividad usa texto escrito, hoy un robot puede aprender de él y luego crear contenido original. Las máquinas incluso han aprendido exitosamente a escribir código en distintos lenguajes de programación.
Allí yace la principal alerta ante este tipo de tecnologías: ya no son sólo sectores acotados de la población los que quedarán obsoletos por la robotización, sino que un número importante de profesionales calificados verá cómo sus fuentes laborales corren peligro.
GPT3 y desafíos éticos impensados
La inversión económica para crear un sistema como éste es gigantesca. De ahí que, como confirma TechCrunch, sólo grandes corporaciones puedan desarrollar este tipo de plataformas. Google y Meta han hecho grandes avances, pero quien lleva la delantera en esta materia es Open IA, una organización fundada en 2015 por varias luminarias de Silicon Valley, entre ellos Elon Musk. Su creación estrella es GPT-3, un programa capaz de imitar el lenguaje humano de forma tan convincente que deja a Siri o Alexa casi como objetos de museo.
Sin ir más lejos, hace algunos días se lanzó al público ChatGPT, una chat que usa el modelo de lenguaje GPT-3 y que está disponible en su web para que cualquier persona lo use. La amplitud y certeza de las respuestas del bot ha sido tema candente en redes sociales y medios de comunicación en la última semana.
Pero más allá de lo sorprendente de la tecnología, el hecho de que sólo grandes empresas puedan desarrollar este tipo de plataformas levanta una serie de preguntas éticas.
Hoy el material que sirve de insumo para que las máquinas puedan “aprender” proviene de lo que éstas encuentran en Internet. Basta dar un breve paseo por Twitter, TikTok o alguna de las redes sociales más populares para darse cuenta de que todas están llenas de racismo, propaganda, chauvinismo y todo tipo de sesgos. Todo ello se traspasa al algoritmo, a menos que intervenga un humano, específicamente un empleado de alguna de estas corporaciones, lo que inmediatamente levanta la pregunta: ¿Dejaremos nuevamente que sólo las Big Tech controlen cómo piensan las máquinas?
Esta cuestión puede incluso transformarse en un asunto clave para la salud de las democracias. Como escribe Jonathan Haidt en The Atlantic, hoy nos encontramos en un momento disruptivo en la historia de la humanidad en que las sociedades parecen desmembrarse desde dentro. Sin confianza en las instituciones, con una total ausencia de relatos comunes, cada uno viviendo en su propia burbuja informativa, los ciudadanos digitalizados son presa fácil de campañas de desinformación.
Ahora imaginen una campaña en que miles de bots, de forma cada vez más articulada y convincente, se integran a la discusión pública apelando a tal o cual consigna. Sumen a eso que mientras más incendiarios sean sus comentarios, mayor será su exposición gracias a algoritmos que refuerzan aquello que es más viralizable. Y sabemos que no hay nada más viralizable que la rabia.
No hay que ser muy genio para darse cuenta que esta configuración de hechos es una verdadera bomba de tiempo.
El lenguaje de las máquinas
Este es un proceso indetenible, un problema que se agudizará cuando no tan sólo las grandes corporaciones, sino también personas individuales y gobiernos tengan acceso a estas tecnologías. El connotado experto en inteligencia artificial Eric Schmidt, en conversación con Sam Harris, ofrece un particular diagnóstico: “Hoy un grupo de técnicos están adoptando decisiones con serias implicancias filosóficas y sociales de las que son simplemente ignorantes”, arguye.
Su recomendación es integrar otras disciplinas a la discusión: historiadores, psicólogos, sociólogos, filósofos. Todos ellos podrían aportar en la creación de principios que guíen la investigación y permitan la toma de decisiones que sean beneficiosas para la humanidad en su conjunto.
Lo indudable es que, más allá de lo que pase al interior de las Big Tech, el uso del lenguaje por parte de las máquinas será un tema que cambiará la economía y la sociedad del futuro. Por lo pronto, como ciudadanos de a pie, lo único que nos queda es tomar consciencia de lo que se viene.
Una recomendación es expandir constantemente nuestros conocimientos, incluso explorando disciplinas que parecen alejadas de nuestra especialidad, con el objetivo de fortalecer nuestra capacidad de adaptación a los cambios futuros. Las máquinas afortunadamente aún están lejos de conseguir la flexibilidad mental que caracteriza a los humanos.
En segundo lugar, debemos aquilatar seriamente el hecho de que cada interacción que realizamos en Internet alimenta a los algoritmos en su insaciable hambre por entender nuestro lenguaje. Básicamente, depende de nosotros cómo hablará y qué dirá la inteligencia artificial del presente y el futuro.
Desde esta tribuna nos conformamos con gritar: ¡Viene un meteorito!