La IA de Kagi Translate responde: “¿Qué diría una Margaret Thatcher excitada?”
Si has usado Internet durante algún tiempo, probablemente has utilizado herramientas como Google Translate para convertir páginas web o fragmentos de texto entre idiomas que van desde el uzbeko hasta el esperanto. Pero ¿qué pasa si quieres traducir a “idiomas” más inusuales como “lenguaje de LinkedIn”, “jerga Gen Z” o “Margaret Thatcher excitada”?
Esta semana, muchas personas en Internet se han sorprendido al descubrir que Kagi Translate, impulsado por IA, puede realizar estas y muchas otras tareas de “traducción” poco comunes. Aunque este descubrimiento colectivo resalta el lado creativo y lúdico de los modelos de lenguaje, también expone los riesgos de permitir que los usuarios experimenten libremente con herramientas LLM generalizadas.
¿Qué es realmente un “idioma”?
Aunque quizá conozcas Kagi principalmente como un competidor de pago del cada vez más deteriorado buscador de Google, la empresa lanzó su herramienta Kagi Translate en 2024, afirmando que era una alternativa “simplemente mejor” frente a opciones como Google Translate y DeepL. En su lanzamiento, la compañía explicó que Kagi Translate “utiliza una combinación de LLM, seleccionando y optimizando el mejor resultado para cada tarea”, lo que “puede ocasionalmente generar comportamientos extraños que estamos trabajando en resolver”.
Las primeras versiones del servicio incluían menús desplegables simples con 244 idiomas disponibles como origen y destino. Sin embargo, en febrero de 2025, al menos un usuario de Hacker News descubrió que se podían modificar los parámetros de la URL para establecer el idioma de salida como “hombre grosero con acento de Boston” sin que nada fallara.
En semanas recientes, las propias redes sociales de Kagi han destacado la capacidad del servicio para imitar “lenguaje de Reddit” o generar el estilo de consultores de McKinsey con unos pocos clics. Pero el martes por la mañana, estos usos poco convencionales se volvieron virales cuando un usuario de Hacker News comentó que “Kagi Translate ahora soporta lenguaje de LinkedIn como idioma de salida”. Más adelante en ese mismo hilo, otros usuarios notaron que también se puede cambiar el idioma simplemente escribiéndolo en la barra de búsqueda, y la IA intenta adaptarse.
A partir de ahí, todo se descontroló: usuarios en foros y redes sociales comenzaron a probar ideas cada vez más absurdas. Algunos lo usaron para crítica mediática, bromas políticas, burlas a negacionistas científicos o críticas a multimillonarios. Otros intentaron imitar voces de figuras famosas con estilos distintivos como Carl Sagan, Slavoj Zizek, Werner Herzog o Morgan Freeman.
Otros fueron aún más lejos, pidiendo traducciones como “gatito diminuto” o incluso hacia lenguajes de programación. El propio equipo de Kagi se sumó al juego, animando a usar el “lenguaje de LinkedIn” para “encajar perfectamente en ese entorno”.
¿Recuerdas cuando los LLM eran divertidos?
En cierto modo, esto recuerda a los primeros días de ChatGPT, cuando la gente se sorprendía con las capacidades casi mágicas de estos modelos. En ese entonces, bastaba pedirle a un LLM que imitara poesía absurda o debates antiguos en foros para generar contenido interesante y compartible.
Con el tiempo, el auge de la IA ha convertido estos modelos en el eje central de la industria tecnológica, con promesas de reemplazar empleos o incluso crear superinteligencias. Al encapsular un LLM dentro de una herramienta de traducción “divertida”, Kagi recupera ese lado creativo y experimental del lenguaje.
A diferencia de otros usos problemáticos de la IA, como respuestas incorrectas o asesorías dañinas, aquí el riesgo parece mínimo. Nadie va a confundir Kagi Translate con una fuente absoluta de verdad o con un reemplazo total de profesionales. Es más bien una herramienta lúdica que permite experimentar con el lenguaje de formas impensables hace apenas cinco años.
Aun así, incluso este tipo de implementación podría beneficiarse de ciertos límites. Por ejemplo, pedirle que imite a “alguien que dice insultos constantemente” puede generar resultados que la empresa preferiría evitar. Esto demuestra lo que ocurre cuando no se filtran adecuadamente las entradas en un modelo de lenguaje.

