🤖 Esta columna no la escribió ChatGPT
Un millón de usuarios y más respuestas equivocadas

José Ignacio Stark
December 06, 2022

"Estás muy conservador", me dijo Fabián este fin de semana tras mis comentarios sobre ChatGPT — la nueva herramienta de OpenAI - en el grupo de Telegram de Futuros. El momentum sobre el chatbot se generó la semana pasada mientras muchos de nosotros estábamos preocupados de encontrar a la cómplice de Sam Bankman-Fried en una cafetería de Nueva York o de cuánto cayó el avisaje en Twitter bajo Elon (un 80% semanal).
Debo confesar que ChatGPT me sorprendió, y no soy el único: desde su lanzamiento, hay académicos que le presentaron al modelo de Inteligencia artificial preguntas de sus exámenes, y — dicen - que las respuestas que entrega son fluidas, articuladas e incluso dignas de un alumno con nota máxima (?); por otro lado, programadores usaron la herramienta para resolver desafíos de código escrito en lenguajes de programación oscuros en cosa de segundos, junto a un resumen detallado que describe la solución.
OpenAI's new ChatGPT explains the worst-case time complexity of the bubble sort algorithm, with Python code examples, in the style of a fast-talkin' wise guy from a 1940's gangster movie:
— Riley Goodside (@goodside)
Dec 1, 2022
Es fácil asumir, entonces, que ChatGPT y GPT-3.5 son el futuro del contenido:uno bien afiebrado donde vivimos en un mundo de contenidos infinitos y personalizados generados por inteligencia artificial y que impactará cómo lo generamos, consumimos y comercializamos. Pero resulta que los modelos de lenguaje masivos (LLM, por sus siglas en inglés) no son perfectos, y tampoco precisos.
GPT-3.5 está entrenado en Internet — incluyendo con la base de datos de Twitter, hoy propiedad del exconfundador de OpenAI - lo que levanta algunas señales de alerta; por ejemplo, la decisión de StackOverflow de prohibir respuestas generadas por ChatGPT, que llega tras las alertas del equipo de moderación voluntario del foro de dudas de programación que detectó miles de respuestas generadas durante esta semana: de buenas a primeras, los datos que genera la herramienta parecen plausibles… pero en su mayoría son incorrectos.

Como le dije a Fabián, creo que nos estamos apurando mucho; no es que ChatGPT sea un santo grial: es un sandbox, y como tal, es una prueba de concepto sobre cómo la generación de texto sintético puede ayudarnos a generar contenidos plausibles. Sin embargo, si la herramienta como tal facilita que compartas sus resultados y obscurece su verificación y posible edición para asegurar la verosimilitud de lo generado, es donde comienzan los problemas y la innovación se transforma en un peligro.