Angélica Rendón
Es sin lugar a dudas el mercado laboral el que es más afectado siempre que se dan innovaciones. Las tres revoluciones industriales precedentes han demostrado que sólo aquellos que saben adaptarse, son resilientes y también han sido capaces de preconizar lo que está por venir, quienes han sobrevivido o, inclusive, han sido parte importante de los nuevos desarrollos, desde la máquina de vapor en la industria textil y siderometalúrgica, y la introducción del ferrocarril, o cuando llegaron los motores a base de petróleo y gas, y las primeras centrales eléctricas, y recientemente la aparición de la televisión y las primeras computadoras personales.
Siempre ha habido gente en el despido. Sus labores son sustituidas por las nuevas máquinas que buscan dinamizar las formas de producción. En este sentido, los especialistas señalan que nos encontramos en la Cuarta Revolución Industrial, que es la transformación digital con avances en Cloud Computing, Big Data Analytics, Internet of Things, Mobility y Social Media, consideradas las cinco palancas de este nuevo fenómeno, el cual sucintamente se abrevia en IA o inteligencia artificial.
La inteligencia artificial no es un término acertado pues los sistemas informáticos más inteligentes aún no saben nada, a decir de una publicación en el portal The Conversation, pero la tecnología ha llegado a un punto de inflexión en el que está a punto de afectar nuevas clases de trabajos, es decir, a artistas y trabajadores del conocimiento.
Específicamente, las computadoras tienen la capacidad de producir un lenguaje escrito que suena humano y convertir frases descriptivas en imágenes realistas. Esto ha desatado ríos de bytes en internet, donde la discusión de los gigantes de los medios de comunicación en el mundo, pero también los centros educativos más prestigiosos del orbe, las áreas científicas y académicas y, no menos importante, también las artes y hasta la industria del entretenimiento están discutiendo si esta IA sustituirá el ingenio, la cultura, la creatividad humana. En estos días es burla el tema en México de una ministra que obtuvo su título de licenciatura en Derecho copiando una tesis de otro estudiante; se dice que es precursora de esta IA.
Y bromas aparte, efectivamente uno de los aspectos de mayor interés sobre todo en la comunidad científica es el problema ético al cual se pueden enfrentar al prácticamente no reconocer si un texto es desarrollado mediante IA o es realizado por una persona. Por ello, The Conversation pidió a cinco investigadores de inteligencia artificial que discutieran cómo se puede afectar a los artistas y trabajadores del conocimiento, y concluyeron que la tecnología está lejos de ser perfecta, lo que plantea una serie de problemas, desde información errónea hasta plagio, que afectan a los trabajadores humanos, pero también se avizora la creación de trabajos no conocidos hasta el momento.
Para Lynne Parker, vicecanciller asociada de la Universidad de Tennessee, los grandes modelos lingüísticos a través de la IA están haciendo que la creatividad y el trabajo del conocimiento sean accesibles para todos. Cualquiera con una conexión a Internet puede usar ChatGPT o DALL-E 2 para expresarse y dar sentido a grandes cantidades de información, por ejemplo, produciendo resúmenes de texto, pero también crear ilustraciones, generar propuestas de marketing, obtener ideas para superar el “bloqueo del escritor” o generar un nuevo código de computadora para realizar funciones específicas, todo con un nivel de calidad típicamente atribuido a expertos humanos.
Sin embargo, esto podría acelerar la pérdida de importantes habilidades humanas que seguirán siendo importantes, especialmente la escritura, de acuerdo con Parker. Ella sugiere que los institutos educativos elaboren y hagan cumplir políticas sobre los usos permitidos de los modelos lingüísticos extensos para garantizar un juego limpio y resultados de aprendizaje deseables.
Otro aspecto muy relevante es la protección de la propiedad intelectual, ya que si bien los creadores humanos se inspiran regularmente en los artefactos existentes en el mundo como la arquitectura y los escritos, la música y las pinturas de otros, existen preguntas que aún no se responden sobre el uso adecuado y justo por parte de modelos de lenguaje extenso de ejemplos de capacitación con derechos de autor o de código abierto. Actualmente hay demandas en curso que pueden tener implicaciones para el futuro diseño y uso de modelos de lenguaje grande.
Sesgos, plagios e inexactitudes son quizá el quid principal ante la IA. Recientemente, Meta (Facebook) cerró su modelo de lenguaje grande Galactica para texto científico porque inventaba “hechos” pero sonaba muy confiado. La preocupación era que podría contaminar Internet con falsedades que suenan seguras, según refiere Daniel Acuña, profesor asociado de Ciencias de la Computación, en la Universidad de Colorado en Boulder.
Él señala que ha usado de forma regular GitHub Copilot -una herramienta para ayudar a las personas a escribir código de computadora- y también ChatGPT, y considera que “son buenas para explorar ideas en las que no había pensado antes”. Y se dice impresionado de la capacidad de los modelos para traducir sus instrucciones en texto o código coherente. Considera por ello que “son útiles para descubrir nuevas formas de mejorar el flujo de mis ideas, o crear soluciones con paquetes de software que no sabía que existían. Una vez que veo lo que generan estas herramientas, puedo evaluar su calidad y editar mucho. En general, creo que elevan el nivel de lo que se considera creativo”.
Pero no todo el monte es orégano. Acuña no deja lugar dudas: señala que “un conjunto de problemas son sus imprecisiones, pequeñas y grandes. Con Copilot y ChatGPT, busco constantemente si las ideas son demasiado superficiales, por ejemplo, texto sin mucha sustancia o código ineficiente, o resultados que simplemente son incorrectos, como analogías o conclusiones incorrectas, o código que no se ejecuta. Si los usuarios no critican lo que producen estas herramientas, las herramientas son potencialmente dañinas”.
Sobre los sesgos, dice que los modelos de lenguaje pueden aprender de los sesgos de los datos y replicarlos, pero son difíciles de ver en la generación de texto; sin embargo, son muy claros en los modelos de generación de imágenes. Los investigadores de OpenAI, creadores de ChatGPT, han sido relativamente cuidadosos acerca de a qué responderá el modelo, pero los usuarios suelen encontrar formas de sortear estas barreras, señala.
Mientras que sobre plagio, hay investigaciones que han demostrado que las herramientas de generación de imágenes a menudo plagian el trabajo de otros. Sin embargo se cuestiona que ocurre en los textos y confiesa que “el trabajo en mi laboratorio muestra que las herramientas de detección de plagio de texto están muy atrasadas cuando se trata de detectar paráfrasis”.
Su sugerencia es que las herramientas podrían verificar el texto generado con las bases de conocimiento, usar métodos actualizados para detectar y eliminar sesgos de modelos de lenguaje grandes y ejecutar resultados a través de herramientas de detección de plagio más sofisticadas.
Otro aspecto a debatir es la unicidad humana para hacer cosas, y la ciencia y la tecnología han demostrado que estamos equivocados, señala de forma contundente Kentaro Toyama, profesor de Información Comunitaria de la Universidad de Michigan, quien agrega que la tecnología ha anulado, una por una, las afirmaciones de que las tareas cognitivas requieren un cerebro humano. La primera máquina sumadora se inventó en 1623, dice. El año pasado, una obra generada por computadora ganó un concurso de arte. “Creo que la singularidad, el momento en que las computadoras se encuentran y superan a la inteligencia humana, está en el horizonte”.
¿Cómo se valorarán la inteligencia y la creatividad humanas cuando las máquinas se vuelvan más inteligentes y creativas que las personas más brillantes? Toyama dice que probablemente habrá un continuo. “En algunos dominios, las personas aún valoran que los humanos hagan cosas, incluso si una computadora puede hacerlo mejor. Ha pasado un cuarto de siglo desde que Deep Blue de IBM venció al campeón mundial Garry Kasparov, pero el ajedrez humano, con todo su dramatismo, no ha desaparecido”.
En otros dominios, la habilidad humana parecerá costosa y extraña, asegura, y agrega que muchos campos serán híbridos, donde algunos Homo sapiens encontrarán un nicho afortunado, pero la mayor parte del trabajo lo realizan las computadoras por ejemplo en la fabricación, donde gran parte de ella la realizan robots, pero algunas personas supervisan las máquinas y sigue existiendo un mercado para los productos hechos a mano.
Aunque no es demasiado optimista, ya que refiere que es casi seguro que los avances en IA harán que desaparezcan más trabajos, que las personas de clase creativa con habilidades solo humanas se volverán más ricas pero menos en número, y que aquellos que poseen tecnología creativa se convertirán en los nuevos mega-ricos. Si hay un resquicio de esperanza, podría ser que cuando aún más personas no tengan un medio de vida decente, podrían reunir la voluntad política para contener la desigualdad descontrolada.
Sin embargo, lo que también podría ocurrir es que los grandes modelos lingüísticos permitirán nuevas formas de trabajar y también darán lugar a trabajos nuevos y aún inimaginables, según Mark Finlayson, profesor asociado de Informática de la Universidad Internacional de Florida, basándose en lo que ocurrió a principios de los años ochenta con el impacto de la introducción de los programas de procesamiento de textos, que ocasionó que ciertos trabajos como el de mecanógrafo desaparecieran casi por completo, pero por otra parte, cualquier persona con una computadora personal podía generar documentos bien escritos con facilidad, lo que aumentaba ampliamente la productividad.
Además, para Finlayson, de cualquier manera se necesitará intervención humana, ya que puede mencionar tan solo tres aspectos en los que los grandes modelos de lenguaje se quedan cortos: Por una parte, se puede necesitar un poco de inteligencia (humana) para crear un aviso que obtenga el resultado deseado. También, los modelos de lenguaje extenso pueden generar resultados inapropiados o sin sentido sin previo aviso, y por último, hasta donde los investigadores de IA pueden decir, los modelos de lenguaje extenso no tienen una comprensión abstracta y general de lo que es verdadero o falso, si algo está bien o mal, y qué es solo sentido común.
Agrega que particularmente no pueden hacer matemáticas relativamente simples, por lo que estas fallas son oportunidades para los trabajadores creativos y del conocimiento. Y hace hincapié en que para gran parte de la creación de contenido -incluso para el público en general-, las personas aún necesitarán el juicio de los trabajadores humanos creativos y del conocimiento para impulsar, guiar, cotejar, curar, editar y, especialmente, aumentar la producción de las máquinas.
Muchos tipos de lenguaje especializado y altamente técnico permanecerán fuera del alcance de las máquinas en el futuro previsible. Y habrá nuevos tipos de trabajo, por ejemplo, aquellos que crearán un negocio a partir del ajuste fino de modelos de lenguaje grandes internos para generar ciertos tipos de texto especializados para servir a mercados particulares. Es decir que a pesar de la disrupción de la Cuarta Revolución Industrial, todavía hay muchas oportunidades valiosas para aquellos que estén dispuestos a adaptarse e integrar estas nuevas y poderosas herramientas.
Al igual que con muchos avances tecnológicos, la forma en que las personas interactúan con el mundo cambiará en la era de los modelos de IA ampliamente accesibles, comenta Casey Greene, profesor de Informática Biomédica en el Campus Médico Anschutz de la Universidad de Colorado, pero la pregunta es si la sociedad utilizará este momento para promover la equidad o exacerbar las disparidades. La tecnología cambia la naturaleza del trabajo, y el trabajo del conocimiento no es diferente.