Bastante bien
La IA generativa es rápida y quizás sea buena - pero no es barata.

Existen axiomas que son prácticamente imposibles de contradecir, funcionan casi como leyes naturales. No importa cuánto se estiren la tecnología, la cultura o simplemente el espíritu humano, intentar romperlos es como intentar revertir el curso de un río, detener el tiempo o resucitar a los muertos. Uno de estos principios ineludibles reza que es imposible que algo sea "rápido, barato y bueno" - alguna de las tres cualidades deberá ser sacrificada.
El boom de la inteligencia artificial generativa puede leerse en distintos niveles. Los creyentes más fanatizados lo plantean como un primer paso necesario en la búsqueda de una inteligencia artificial general - ya no una tecnología, sino una criatura sobrehumana que pondrá en riesgo nuestra superviviencia. Pero la mayoría de la gente que ha interacturado con productos basados en "inteligencia artificial" la percibe como un hack para conseguir algo bueno, rápido y a bajo o nulo costo.

Por el momento, el diagnóstico parecería positivo. Las narrativas tecno-optimistas alrededor de la inteligencia artificial se diversifican semana a semana, y nuevos productos basados en IA nacen de a cientos, todos los días. ¿Crees que estoy exagerando? Echale un ojo al inicio de ProductHunt.com.
A pesar de todo, el axioma se mantiene inquebrantable: "Bueno, rápido y barato" es imposible. Entonces, cualquier reporte de que los productos de la inteligencia artificial generativa cumplen con estos tres parámetros es falso - u omite ciertos factores que fuerzan la fórmula artificialmente.
La mayoría de los productos basados en AI son mediocres. Sus outputs creativos son de mediocres a pobres (especialmente cuando se los analiza en detalle); sus respuestas son limitadas o altamente falibles; los resultados que prometen sólo pueden lograrse parcialmente y en casos de uso demasiado restrictivos.
Podría ir a buscar el ejemplo del Humane Pin, un wearable que tardaba un Cristo en producir preguntas sencillas ("¿Cuándo juega Boca?", "¿Va a llover mañana?"). O podríamos rememorar el Rabbit R1, con una bella carcasa diseñada por Teenage Engerineering pero un asistente que, a pesar de "poder ver" mediante una pequeña cámara, se probó consistentemente incapaz de entender lo que veía.
Un sinfín de asistentes de "cold mailing" producen emails que se leen mal y performean peor. Las herramientas que pretenden reemplazar a los redactores publicitarios producen buenos primeros borradores, que allanan el camino pero requieren una macrodosis de ingenio humano.
Los coding assistants pueden ahorrarle a los desarrolladores la molestia de tipear, pero requieren supervisión y guía.
El ecosistema ha dado buenos productos. Pienso en mis preferidos: NotebookLM, Perplexity & Rabbithole. Pero son excepciones selectas, con casos de uso hiper-específicos, que no pretenden reemplazar a trabajadores hiperespecializados, ni mediar entre seres humanos.
Fuera de esas tres herramientas, estoy sorprendido no por productos completos, sino por features. Por ejemplo, el Deep Research de ChatGPT, que utiliza uno de sus modelos más recientes (o3) para producir reportes minuciosos y atinados sobre temas complejos.
Estoy al tanto de lo que toma este tipo de trabajo. En Postdigitalist hacemos pequeñas investigaciones para uso interno, en un contexto de consultoría y para material de marketing. Sin producir nuevo conocimiento, meramente curando fuentes existentes, esto puede tomarle a un miembro de mi equipo entre 1-3 días hábiles completos, dependiendo de diversos factores (disponibilidad de fuentes, longitud y profundidad del entregable, etcétera).
Deep Research produce en unos minutos (rápido), un informe minucioso y atinado (bueno), por centavos (barato).
Con una suscripción Plus ($20/m), uno puede realizar 6 informes mensuales. Suponiendo que uno sólo utilizase GPT para producir estos informes, cada uno costaría $3.3. ¡Qué maravilla de la técnica! ChatGPT tiene una base de usarios tan extensa y ha logrado tal efectividad en la administración de sus recursos, que puede proveerme el equivalente a un par de días de ingenio humano, en menos de lo que me toma lavar los platos. ¿No es espectacular?
En algunos casos, la falta de criterio hace que se crea cumplida la fórmula: El output es rápido, es barato, y puede ser bueno si apuramos dos botellas de vino y entrecerramos los ojos. Pero, ¿Qué hay de Deep Research? Deep Research es bueno, también es rápido, y es barato para mí. Ahora bien, ¿Es barato para OpenAI?
La accesibilidad de la inteligencia artificial generativa es un truco de magia financiero. Quizás o3 sea el mejor modelo de OpenAI - pero es también el más caro. Cuando el modelo fue sometido a evaluación según el ARC-AGI benchmark, superó con creces a sus antecesores, a fuerza de un gasto en computing power de entre $30 y más de $1,000 por tarea.
Si la mejor feature de ChatGPT (Deep Research) le cuesta $1k/query a la compañía, los usuarios estamos siendo subsidiados con dinero imaginario. Este dinero imaginario, para peor, va a convertirse en deuda con SoftBank si OpenAI no logra transicionar a un modelo for-profit.
Si alguna vez nos tienen que cobrar como lo haría un negocio normal (cubriendo costos y con un profit margin), va a serte mucho más conveniente contratar a un research assistant - al menos va a poder asistirte si sufrís un paro cardíaco en el baño de la oficina.