¿Qué posibilidades hay de que ChatGPT se quede con tu trabajo?

0
26

Muy altas en realidad, pero no todas son malas noticias; el rol de los copilotos, cómo funcionan las mentes sintéticas y un sitio para calcular si tu empleo quedará en manos de la IA

Por GDA | La Nación | El Nacional

Noviembre de 2022 quedará en la historia como la fecha en que la inteligencia artificial empezó a hablarnos. Ese día, una compañía llamada OpenAI puso en Internet, a disposición de todos, algo llamado ChatGPT. Y el mundo se volvió loco.

Cuatro meses después, casi todos conocen a ChatGPT. Pero la locura tenía (y tiene) un motivo. Hasta ahora, la inteligencia artificial (IA, para abreviar) podía entender nuestras preguntas y responder con respuestas prefabricadas. Comprender el lenguaje ya era mucho. Pero ChatGPT dio un paso más. Empezó a decir cosas nuevas. A producir texto original. Original no significa creativo, interesante o entretenido. Pero ese día, cuatro meses atrás, empezamos a dialogar con las máquinas.

Meta reivindica su desarrollo de IA e insiste en el metaverso pese a pérdidas

ChatGPT, un modelo a medida
Aclaremos algunas siglas y conceptos. ChatGPT es un bot para interactuar con un modelo de lenguaje llamado GPT (siglas de Generative Pre-trained Tranformer). GPT no era nuevo en noviembre de 2022. Pero entonces, con dos años de vida y todavía como prueba de concepto, OpenAI hizo una movida genial: puso su bot a disposición del público. Para sorpresa de todos (incluidos sus creadores), la plataforma se convirtió en una de las más populares en la historia de Internet. Se viralizó explosivamente, y la onda expansiva nos trajo hasta acá, preguntándonos cuánto falta para que nuestro empleo sea usurpado por un robot. ¿Usurpar? ¿Es usurpar o los avances en IA han venido a mostrarnos que nos habituamos a hacer trabajos robóticos? Ya llegaremos a eso.

¿Los robots se quedarán con nuestros empleos o es que nos pasamos miles de años trabajando como robots? | Foto: Shutterstock – Shutterstock
GPT es el nombre de una familia de grandes modelos de lenguaje (LLM, por sus siglas en inglés) diseñada por OpenAI; salió al mercado en 2020 como un servicio para fabricantes de software. En medio de una pandemia, el público nunca se enteró de la revolución en ciernes. Lo de “grandes modelos de lenguaje” viene del hecho que estos modelos se entrenan con volúmenes gigantescos de texto, que la red neuronal evalúa por medio de un número descomunal de parámetros. 175.000 millones en el caso de GPT 3.5 (el que conoce todo el mundo). GPT 4, que acaba de salir, es todavía más grande, pero todavía no se sabe cuánto. Acaso podemos sospecharlo: GPT 3.5 es 100 veces más grande que su predecesor, GPT 2.

Por su parte, la palabra bot viene de robot, pero se aplica no a un autómata físico, sino a uno de software. Un bot es cualquier software que automatiza, con más o menos IA, alguna tarea. O sea, el bot ChatGPT nos permite hablar con una red neuronal llamada GPT, diseñada y entrenada para procesar lenguaje.

¿Cómo funciona el entrenamiento de un LLM? Puesto que un modelo de lenguaje –grosso modo– le asigna a una cierta secuencia de palabras una determinada probabilidad de aparecer en cada contexto; la red neuronal es expuesta cientos de miles de millones de palabras, hasta que, de forma estadística, aprende qué es lo más probable decir en cada interacción con los humanos. O con otros bots, claro. Hoy podemos poner a los modelos de lenguaje a hablar entre ellos (¿Recuerdan Her?), incluso para tenderse trampas y que cometan errores o hablen de lo que se supone que no deben hablar.

Los límites impuestos al sistema y lo que en IA se denomina “alineación del modelo de lenguaje” son componentes clave para que GPT no empiece a alucinar (así se dice; no es metafórico) o a predicar eslóganes horribles. Le pasó a Microsoft con Tay, en 2016. Y a Jack Vedal con Neuro-sama, este año. Incluso así, OpenAI ya tiene una demanda por difamación, que le inició Brian Hood, un funcionario australiano.

A propósito, se puede ver en acción esto de hablar estadísticamente en el autocompletado de Gmail y otros servicios de correo. Cuando redactas un mail, un modelo de lenguaje ve lo que vas escribiendo y adivina –casi siempre bien, pero a veces de forma delirante– la palabra que muy probablemente quieres poner a continuación. Y la propone. Si aprietas la tecla de cursor hacia la derecha, la palabra propuesta por la IA se incorpora al texto sin que tengas que teclearla.

Joaquin Phoenix, protagonista de Her, el largometraje en el que un humano se enamora de un bot de inteligencia artificial | Foto: La Nación
Este es, pues, el escenario. El 30 de noviembre de 2022, la IA empezó a hablarnos. La interacción con millones de personas mejoró mucho su desempeño (ChatGPT ha sido actualizado varias veces en estos cuatro meses) y su inesperada celebridad lo instaló como la Nueva Gran Disrupción, a la altura del iPhone, las redes sociales, Internet o la computadora personal. Hoy, en tecnología, casi no se habla de otra cosa, y seguirá siendo así durante mucho tiempo todavía. Es lógico. GPT habla, y hasta ahora los únicos que éramos capaces de hablar éramos los humanos. Wow.

Perdón, no fue mi intención, dice ChatGPT
ChatGPT habla, es cierto. Pero no habla como las personas. Entender la diferencia es clave para anticipar qué empleos se verán más o menos amenazados por la IA. Cuando ChatGPT habla, dice lo que una compleja serie de operaciones (esa red neuronal) le indica que es más probablemente correcto declarar en ese momento. Si quieren cargar un poco las tintas, GPT no habla, autocompleta. Solo que el volumen de su entrenamiento es tan vasto que normalmente (no siempre) acierta.

Pero los humanos no hablamos así. Decimos lo que tenemos voluntad de decir; de expresar, de comunicar, de declarar. Mentimos intencionalmente. O decimos la verdad, cueste lo que cueste. A veces optamos por callar. Y nadie le dice a un hijo que lo ama porque probablemente sea lo más correcto decir en ese momento. Por lo tanto, aunque humanos y modelos de lenguaje podemos hablar, ambos discursos se originan de maneras muy diferentes. Esto es importante por una razón: la forma en que se origina el lenguaje es una radiografía de la mente que hay detrás.

Por ejemplo, GPT incorpora asimismo la forma en que razonamos, porque el modelo de lenguaje fue alimentado también con innumerables debates online. Y de paso carga con nuestros sesgos y visiones del mundo. Por eso, es fácil caer en la ilusión de que el bot posee consciencia o intenciones. Incluso podemos tener la impresión de que su inteligencia es generalista, como la humana.

Se lo pregunté al bot de OpenAI. “¿Tu inteligencia es generalista, ChatGPT?” Su respuesta fue Sí, No y Más o menos. Escribió: “Tengo una inteligencia generalista en el sentido de que he sido capacitado en una amplia gama de labores y puedo realizar varias tareas dentro del alcance de mi programación. Sin embargo, mi inteligencia se limita a la información y los patrones que estaban a mi alcance durante mi entrenamiento. Además, no soy capaz de entender o comprender completamente ciertos conceptos complejos que requieren intuición, emociones y creatividad de nivel humano, y mis respuestas se generan en función de patrones y análisis estadísticos del texto, en lugar de una verdadera comprensión o conciencia”. Honestidad brutal se llama.

Ahora, cuidado. Las limitaciones que el mismo ChatGPT admite son normales en tecnología. Esto recién empieza. En diez años vamos a ver una inteligencia artificial mucho más generalista, que dejará lo que vemos hoy como algo rústico, de museo. En 25 años, para cuando los chicos que nacen hoy estén buscando empleo y formando una familia, la IA será irreconocible para los estándares actuales. No exagero: una PlayStation 4 tiene 2000 veces más potencia que una supercomputadora de 1985.

Qué hacen bien las máquinas

  • Precisión
  • Repetición
  • Cálculo
  • Reconocimiento de patrones
  • Velocidad

Qué hacen mal las máquinas

  • Empatía
  • Intuición
  • Creatividad
  • Consciencia
  • Sentido común
  • Adaptabilidad

No cuáles sino cómo
Pero el punto no es cuán generalista puede llegar a ser la IA. El punto es que nuestra inteligencia, la humana, es 100% generalista. Los modelos de lenguaje pueden ser muy generalistas, notablemente generalistas, pero no 100% generalistas, porque operan estadísticamente y no sobre la base de una comprensión consciente de la realidad. Un 1%, cuando se trata de cognición, inteligencia y empleo puede constituir una diferencia abismal. Dos preguntas aquí.

Primera, ¿no podría ser la inteligencia humana algo que también opera sobre la base de patrones estadísticos? Tal vez sí, en parte, pero no siempre. Y aunque carecemos de una buena definición de “inteligencia”, sabemos que somos muy buenos en algo en lo que la IA es pésima: tenemos sentido común y nuestra inteligencia se adapta rápidamente, incluso a situaciones por completo delirantes, como las que ocurren en los sueños. Además, y esto es un hallazgo de estos días, las partes de nuestro cerebro que piensan más en abstracto están en constante comunicación con las que gobiernan el cuerpo. La IA tiene de todo, pero no un cuerpo. No un cuerpo orgánico y mortal, digamos.

Segunda, ¿llegará alguna vez la IA a ser 100% generalista? No lo sabemos. Para algunos GPT ya es inteligencia 100% generalista. Para otros, esto será imposible mientras la IA no acceda a alguna forma de consciencia.

Dejando de lado estos detalles, algo muy profundo cambió con GPT, y desde el 30 de noviembre la pregunta ya no es qué empleados serán reemplazados por bots (eso ya está pasando). La pregunta es cómo y en qué medida la IA va a trabajar junto a nosotros. O si a sustituirnos por completo.

Observen arriba. Para responder si ChatGPT tiene una inteligencia generalista, usé su IA. Le hablé en inglés, porque en ese idioma GPT funciona mejor. Como no tenía ganas ni tiempo de tipear toda la respuesta en español, le pedí a GPT que tradujera su propia respuesta. El resultado no fue muy elegante, así que copié, pegué y luego retoqué el estilo.

Pero el hecho es que en un empleo que tiene pocas chances de ser reemplazado por la IA usé IA, y la usé como empleamos una calculadora o la navegación asistida por GPS; gané tiempo y evité errores. Por eso, en el ambiente de la IA se está hablando mucho de “copilotos”. O sea, todos los empleos van a verse afectados, pero los humanos por ahora siguen al mando. O casi.

En 2013 (dos años de que se fundara OpenAI), un sociólogo y un programador de la Universidad de Oxford crearon un algoritmo para anticipar qué posibilidades tenía cada empleo de quedar en manos de la IA en los siguientes 20 años, que la Radio Pública de Estados Unidos puso en este sitio donde podés buscar tu empleo actual y ver cuál es el diagnóstico. El papel original, 72 páginas bien medulosas, puede leerse aquí.

El uno por ciento
Aunque muchas cosas han cambiado en estos 10 años, la lección sigue siendo la misma: si un empleo requiere empatía, intuición o creatividad genuina, la IA puede darnos una mano, pero ese sigue siendo territorio humano. En cambio, si se trata de un trabajo rutinario, repetitivo, requiere la inobjetable precisión de las máquinas o hace falta encontrar patrones en big data (algo que los humanos simplemente no podemos hacer), la IA se quedará con todo. Dato literalmente delicioso: según el estudio de Oxford, los cocineros de restaurante están entre los que más posibilidades tienen de ser reemplazados por la IA (96,3%), pero los chefs a cargo solo tienen un 10,1 por ciento. Uno de los empleos menos automatizables es el de asistente social con orientación a adicciones: 0,3 por ciento. Estadísticamente, 0,3% equivale a cero.

ChatGPT dio una vuelta de tuerca abrumadora a la cuestión. Puesto que la inmensa mayoría de los empleos tienen alguna relación con el lenguaje (incluida la programación), quienes no adopten alguna forma de IA en su trabajo –como ocurrió otrora con la lectoescritura, internet, Google o WhatsApp– quedará fuera de carrera. Con un adicional: esto es solo el principio. Vuelvo a preguntar: ¿Qué podría hacer una red neuronal mil millones de veces más potente que GPT? La verdad es que lo ignoramos. Un general estadounidense acaba de advertir: “El futuro de la guerra es la inteligencia artificial”.

Es de suponer que los avances técnicos originarán nuevos empleos (saber cómo preguntarle a un LLM ya constituye un nuevo oficio). Pero el CEO de OpenAI, Sam Altman, cree que una IA capaz de hablar y razonar como las personas podría ser el principio del fin del trabajo tal como lo conocemos y que por lo tanto es menester pensar en un ingreso básico universal. Otros son más optimistas y creen que estos avances nos relevarán de los trabajos enajenantes, liberando nuestro potencial creativo. Solo que somos 8000 millones de seres humanos. Los cambios tecnológicos, además, nunca son ni remotamente homogéneos, así que esta brecha promete más inequidad. ¿Es solo que nos reemplacen los robots o que los trabajos robóticos que hemos venido haciendo durante toda nuestra historia como especie se precaricen más y paguen peor?

La incertidumbre es, como en cada cambio de paradigma, enorme. Pero hay una línea de fuerza que parece recorrer todo este escenario. El advenimiento de la inteligencia artificial como un actor ineludible en el mundo laboral nos obligará a repensar con mucha serenidad qué es lo que nos diferencia de las máquinas. Si tu trabajo no involucra destrezas exclusivamente humanas (la consciencia, y por lo tanto la empatía, la intuición, la creatividad pura –no el pastiche estadístico de ChatGPT– y el sentido común), entonces tal vez deberías elegir otra carrera.

Sin embargo, lo que realmente me preocupa es que nada de todo lo que leíste hasta acá aparece siquiera marginalmente en la agenda de la dirigencia, que debate exactamente igual que a mediados del siglo pasado (salvo pocas y honrosas excepciones). Mientras tanto, la IA se sigue entrenando, a razón de un millón de libros por segundo.