La gente está muy sola
Sobre enamorarse de ChatGPT

En su estadio actual, la inteligencia artificial ya tiene grandes aplicaciones. Pero la inteligencia artificial generativa como consumer tech es una fuente aparentemente inagotable de decepciones.

En los últimos días, comenzó a tomar fuerza la narrativa de que la inteligencia artificial generativa será utilizada para mediar y/o reemplazar las relaciones sociales.
Roy Lee es un ex-estudiante de Columbia que se volvió viral por hacer trampa en el proceso de selección para un puesto de desarrollador en Amazon. El 20 de abril, Lee lanzó "Cluely". Cluely pretende ayudar a la gente a "hacer trampa" en situaciones sociales, tanto en contextos laborales como personales. Su slogan es "cheat on everything".
Como publicista, comprendo lo que se está intentando lograr, y no puedo dejar de reconocerlo como mala praxis. El branding basado en controversia sólo hace sentido si la controversia es un vehículo para expresar algo con lo que buena parte de la audiencia target va a estar dispuesta a estar de acuerdo en público. La controversia puede mover la ventana de Overton. Pero utilizarla para promover algo que nadie va a defender abiertamente no es más sabio que saltar a una pileta vacía. Cluely es una tecnología que quizás a muchos les gustaría usar, pero que a nadie le conviene normalizar.
Si bien podemos señalar, quizás arriesgadamente, que Cluely es un intento fallido de establecer a la inteligencia artificial como mediador de relaciones sociales, Cluely no es el primer producto que le asigna ese rol.
Tanto en publicidades como en microcopy, la mayoría de las plataformas de inteligencia artificial de uso corriente nos proponen que las utilicemos para escribir dedicatorias, redactar emails y lidiar con fricciones sociales. Y no olvidemos al wearable ominosamente bautizado "Friend".
El mayor factor de riesgo a la hora de utilizar inteligencia artificial generativa en entornos B2B hoy es la adopción irresponsable por parte de ejecutivos poco informados. La inteligencia artificial generativa es propensa a las alucinaciones, y no cuenta con las capacidades para llevar a cabo procesos complejos sin supervisión humana. No temo siquiera la pérdida de puestos de trabajo, temo la pérdida de eficiencia y fiabilidad por culpa de gente pasada de tecno-optimismo.
El riesgo de utilizar inteligencia artificial generativa en entornos B2C podría ser mucho más profundo y difícil de detectar. Hay dos formas de adoptar este tipo de herramientas. Puede utilizarse para producir divertidas pelotudeces o puede utilizarse como un compañero y un confidente.
Quienes usan la inteligencia artificial para producir videos de Homero Simpson cantando "Esa estrella era mi lujo" tienen bajas chances de convertirse en usuarios fidelizados y monetizados. Quienes utilizan ChatGPT "para hacer terapia" o se entretienen flirteando con el bot son mucho más propensos a sentir que lo necesitan. Con esta necesidad, viene la "willingness to pay". El mayor desafío que tiene el sector de la inteligencia artificial generativa hoy es cómo aumentar la willingness to pay. Necesitan que más personas estén dispuestas a pagar más.
En los últimos días, he visto a muchos usuarios notar que ChatGPT es cada vez más conversacional y más indulgente. Pasó de ser una suerte de versión text-only de Data de Star Trek, a hablar como un youtuber demócrata. Este shift tonal se corresponde con una estrategia de producto más vinculada a la manipulación emocional del usuario que a la funcionalidad. Incapaz de producir un salto técnico, OpenAI va a afinar el modelo para que "suene más humano" y plantearlo como progreso.
A finales del año pasado, la startup Character.ai fue demandada por la madre de un usuario adolescente, quien terminó con su vida luego de establecer un pacto suicida con uno de sus chatbots.

Podríamos apuntar que este es un caso raro y que el muchacho en cuestión tenía una condición pre-existente que lo volvía propenso a la psicosis: ¡¿A quién se le puede ocurrir hacer un pacto suicida con un bot basado en un personaje ficticio?!
Concuerdo en que estas instancias son y siempre van a ser raras. Pero si los grandes jugadores del ecosistema AI apuntan a que los usuarios perciban a la inteligencia artifical como sintiente (aunque no lo sea), y como un amigo (aunque no pueda serlo), estas instancias van a multiplicarse.
Discusión
¿Por qué está pasando esto? Porque la gente está muy sola. El temor a exponerse emocionalmente ante el otro hace que se adopten dinámicas relacionales transaccionales, en las que el otro tiene que darle a uno exactamente lo que uno quiere - ni nada más, ni nada menos.

Esta búsqueda de maximizar el beneficio de las relaciones humanas causa una soledad profunda. Pero en lugar de cuestionar el deseo de un otro indulgente, hoy podemos reemplazarlo con un producto diseñado para darnos la razón en todo.
Si el uso abusivo de la inteligencia artificial en contextos B2B es un signo de haraganería y falta de compromiso, en contextos B2C podría ser leído como una señal de sociopatía. Necesito anular y doblegar al otro, ponerlo a mi servicio, hasta tal punto que mi ideal de contraparte es un producto diseñado para servirme. Esta aplicación de la IA generativa evidencia ciertas carencias. Pero eso no significa que esté exceptuada de juicios éticos.
Me sabes progresista, así que voy a usar sin miramientos algunos términos de pasado complicado, pero que creo que aquí caben. Es una pena que esta degeneración sólo vaya a terminar con un descalabre profundo de la economía mundial.
La verdadera tragedia en puerta no es la esclavización de la especie humana por parte de una raza de bots autoconscientes. El mundo no es tan divertido. Lo que nos depara es el final de toda esta farsa en una oleada de destrucción de valor que va a arrastrar a gente honesta que no tiene absolutamente nada que ver. Eso es lo que temo. Para la singularidad falta muchísimo más tiempo.