David Díaz
IA: ¿Humo o Fuego? Automatización, Aumentación, Competencia y Humanidad: Consejos para sobrevivir en la era de las tarifas
En este artículo comparto mi visión sobre la última revolución tecnológica que vivimos, una que, vertiginosamente, mueve la línea de lo posible cada día. La inteligencia artificial —protagonista de esta transformación— nos plantea interrogantes clave: ¿qué es moda pasajera (humo) y qué representa una disrupción duradera (fuego)? ¿Cómo será el mundo cuando nos hayamos acostumbrado a su presencia, como hoy lo estamos a los smartphones o redes sociales?

Introducción
La automatización y aumentación impulsadas por la IA ya transforman las reglas del juego. No se trata sólo de adoptar nuevas tecnologías, sino de comprender cómo estas herramientas potencian la competencia, sacuden el comercio global y redefinen lo humano en lo digital.
A continuación, repasaré definiciones clave y el estado actual de la IA. Luego, compartiré consejos prácticos para destacar en esta Era de las Tarifas, donde la capacidad de discernir lo esencial será clave para seguir siendo competitivos… y humanos.
1. ¿Cómo llegamos aquí?
Para muchos, la historia de la IA comenzó con ChatGPT. Pero esta tecnología tiene más de siete décadas de historia. Su desarrollo se construyó sobre avances matemáticos, papers académicos y colaboraciones interdisciplinarias. (Mi primer paper en IA aplicada a finanzas es de 2008).
Lo que vemos hoy no es moda, sino la convergencia de factores acumulados. A diferencia de otras tecnologías mediáticas —como el metaverso o el blockchain— la IA se basa en fundamentos sólidos. Se parece más a la computación cuántica: aún en desarrollo, pero con base científica profunda.
Tres factores permitieron su salto a lo cotidiano:
El poder del dato: la digitalización masiva (internet, redes, sensores) generó big data para entrenar modelos cada vez más potentes.
El poder del cómputo: el crecimiento de GPUs permitió entrenar modelos con miles de millones de parámetros.
El poder del algoritmo: arquitecturas como Transformers (Attention is all you need!) y su interfaz conversacional hicieron accesible la tecnología, ocultando la complejidad tras una experiencia natural.
Lo que parece irrupción súbita es, en realidad, el resultado de décadas de ciencia, datos, hardware y diseño de experiencia. No es humo: es fuego. Y quizás, apenas la chispa.
2. La IA hoy. Cómo se construye, su evolución reciente y características principales.
Para entender lo que realmente es un Large Language Model (LLM) como ChatGPT, Claude, Gemini o DeepSeek, conviene desmitificar un poco el proceso. A veces da la impresión de que simplemente alguien recolectó toda la información de internet, se la pasó a un algoritmo, y este, como por arte de magia, aprendió a dominar el lenguaje. Pero la realidad es bastante más compleja —y más interesante.
El crear y entrenar un modelo requiere una serie de pasos y decisiones de diseño, las que además nos han ido proveyendo modelos cada vez más capaces y con más funcionalidades. Podemos entender esta evolución como una serie de versiones que fueron incorporando nuevas capacidades. Aquí las resumo en cuatro grandes etapas:
Versión 1.0: El modelo que aprende a hablar
Los modelos de lenguaje a gran escala (Large Language Models, o LLMs) como ChatGPT se entrenan utilizando cantidades masivas de información disponible públicamente en internet. Su primer objetivo es aprender a dominar el lenguaje: comprender su estructura, sus matices, sus ambigüedades, y generar texto coherente a partir de una instrucción o prompt.
Este proceso se basa en una idea fundamental pero poderosa: si un modelo puede predecir correctamente cuál es la siguiente palabra en una frase, es porque ha internalizado las reglas, patrones y contextos del idioma. Para lograrlo, se le alimenta con una gigantesca colección de textos —libros, sitios web, artículos periodísticos, foros, código fuente, papers académicos y más— que permiten que el modelo aprenda las relaciones estadísticas entre palabras, frases y conceptos.
Sin embargo, no se trata solo de acumular más y más datos. Tan importante como la cantidad es la calidad: qué tipo de contenido se utiliza, cómo se selecciona, y cómo se procesa. Aquí aparece una dimensión crítica —y muchas veces ignorada— del proceso: la limpieza y curaduría de los datos.
Antes de entrenar al modelo, hay que decidir qué textos incluir, cuáles excluir, qué fragmentos enfatizar y qué tipos de lenguaje censurar o limitar. Estas decisiones no son neutrales: constituyen una línea editorial implícita. Determinan, en la práctica, la personalidad del modelo. Influyen en su tono, en sus prioridades temáticas, en los valores que tiende a reflejar… y también en sus sesgos.
Ese primer modelo resultante, entrenado con los datos ya curados, sabe hablar. Puede formar frases gramaticalmente correctas, imitar distintos estilos y mantener una conversación fluida. Pero no necesariamente dice cosas útiles o ciertas. Es como un hablante recién alfabetizado: domina el lenguaje, pero aún no ha aprendido a usarlo con propósito, ni a distinguir lo importante de lo trivial.
Esta es la primera gran etapa en la evolución de los modelos. Una etapa que, aunque invisible para el usuario final, determina en gran medida el carácter del sistema con el que interactuamos.
Versión 2.0: El modelo refinado que entiende instrucciones
A continuación, viene una segunda etapa conocida como fine-tuning o post training, que puede incluir aprendizaje por refuerzo con retroalimentación humana (RLHF). Este proceso es muy intensivo en trabajo humano, porque implica enseñarle al modelo qué tipo de respuestas son preferibles, dándole ejemplos, puntuando sus respuestas, o incluso corrigiéndolo. Es importante notar aquí nuevamente la mano del editor, es el dueño o empresa que crea el modelo la que define qué es preferible, y cómo se realiza esta sintonía fina adicional.
Así nace la segunda generación de modelos, también conocidos como instruct models. Ya no solo saben hablar: responden de forma útil, relevante y alineada con lo que el humano espera. Son mucho más útiles en la práctica, pero siguen teniendo limitaciones importantes:
- Alucinaciones: Aunque son más coherentes, siguen siendo probabilísticos. Pueden inventar datos con gran seguridad.
- Fecha de corte: Solo “saben” lo que había en los datos con los que fueron entrenados. No aprenden de nuevas situaciones y no han incorporado en su memoria todos los hechos o noticias que han ocurrido desde la fecha en la que fueron entrenados (no conocen el diario del día de hoy)
- Consumo de recursos: Son inmensos en peso y demanda computacional, tanto para entrenarlos como para usarlos. Por eso viven en la nube: ni tu celular ni tu notebook podrían correrlos localmente, y necesitan conexión a internet para funcionar.
Y aquí es donde emerge otra idea clave: el prompt engineering. Como la calidad de la respuesta del modelo depende de cómo se formula la instrucción de entrada, el arte de preguntar bien se convierte en una nueva habilidad profesional. Instrucciones claras, ejemplos concretos y contexto útil producen mejores resultados.
Versión 3.0: Modelos multimodales y con herramientas
La siguiente gran evolución amplía el alcance de la IA más allá del texto. Los modelos más avanzados hoy son multimodales: no solo procesan lenguaje escrito, sino que también entienden imágenes, audio, video, tablas o incluso comandos estructurados. Por ejemplo, ChatGPT puede interpretar una foto, resumir un video o responder preguntas sobre una hoja de cálculo cargada por el usuario.
Otro momento “Eureka” de esta revolución ocurre cuando descubrimos que estos modelos no solo comprenden el lenguaje humano, sino también los lenguajes de programación con los que fueron creados. Si pueden escribir código como un desarrollador senior, ¿por qué no pedirles que construyan herramientas o scripts por nosotros? Y si les damos permiso para ejecutarlos, pueden interactuar no solo con personas, sino también con sistemas computacionales externos: APIs, bases de datos, navegadores o incluso software corporativo.
Gracias a estas capacidades, pueden escribir y ejecutar instrucciones que les permiten buscar en internet, conectarse al Banco Central, consultar documentos internos, analizar imágenes o automatizar flujos de trabajo empresariales.
Esto lleva a una mejora clave: respuestas más precisas, ancladas en evidencia actual. Por ejemplo, si le preguntas qué tarifa impuso Trump a las importaciones chinas en 2025, el modelo ya no necesita “inventar” una respuesta a partir de sus datos entrenados: puede utilizar una herramienta de búsqueda o conectarse a Wikipedia para obtener el dato correcto y actualizado.
Lo mismo aplica en contextos empresariales. Imagina una empresa minera que quiere ofrecer a sus trabajadores un asistente virtual que responda preguntas sobre políticas internas de seguridad, medio ambiente o cumplimiento normativo. El modelo puede acceder a los manuales de compliance o gestión de riesgo —guardados como PDF o documentos internos— y generar respuestas precisas, personalizadas y citables.
Este tipo de arquitectura se conoce como Retrieval-Augmented Generation (RAG). En vez de depender solo de su entrenamiento previo, el modelo combina su capacidad lingüística con acceso dinámico a fuentes externas de conocimiento, lo que lo convierte en una herramienta mucho más útil, segura y verificable para entornos reales.
Versión 4.0: Modelos con autonomía (AI agents)
La inteligencia artificial ha alcanzado un nuevo umbral con la aparición de los agentes inteligentes (AI agents): modelos que no solo dominan el lenguaje y siguen instrucciones, sino que también pueden actuar con un grado notable de autonomía, llevando a cabo tareas complejas sin necesidad de intervención constante.
Un avance clave en este ámbito es el desarrollo del Model Context Protocol (MCP) por parte de Anthropic, creadores del modelo Claude. El MCP es un estándar abierto que permite conectar asistentes de IA con múltiples sistemas y fuentes de datos —repositorios de documentos, aplicaciones empresariales, entornos de desarrollo, entre otros—. Su objetivo es que los modelos accedan a información precisa y relevante en tiempo real, de forma segura y estructurada.
Gracias al MCP, los agentes ya no están limitados al conocimiento almacenado en su entrenamiento: ahora pueden integrarse fluidamente con herramientas y datos externos, y ejecutar flujos de trabajo más amplios. Esto les permite:
- Planificar tareas: descomponer problemas en pasos concretos y ordenados.
- Reflexionar sobre el proceso: evaluar si los pasos que están siguiendo son adecuados y adaptarlos según los resultados.
- Buscar y reunir información: consultar diversas fuentes, internas o externas, para fundamentar sus decisiones.
- Interactuar con herramientas específicas: usar APIs, documentos internos o software empresarial según la tarea.
- Generar contenido intermedio: producir informes, resúmenes o cálculos como parte de una cadena de trabajo.
- Entregar soluciones razonadas: no solo dan una respuesta, sino que explican paso a paso cómo llegaron a ella.
Una funcionalidad ejemplar de esta nueva generación es el "uso de computadora" en Claude, que le permite controlar interfaces gráficas: navegar por internet, hacer clic, escribir o ejecutar comandos, todo bajo autorización del usuario. Así, tareas repetitivas pueden delegarse al modelo, liberando tiempo para actividades más estratégicas o creativas.
Con estas capacidades, la IA deja de ser un asistente que responde consultas y se convierte en un colaborador autónomo que piensa, improvisa y actúa dentro de los límites definidos. Esta evolución plantea no sólo desafíos tecnológicos, sino también organizacionales y éticos: nos obliga a repensar cómo diseñamos el trabajo, cómo tomamos decisiones y qué rol queremos darle a la inteligencia artificial en nuestra vida profesional.
3. Tenemos IA, ¿y ahora qué?
Una vez superada la sorpresa inicial —esa mezcla de asombro, fascinación y temor— surge la pregunta inevitable: ¿qué hacemos con esta tecnología? ¿Cómo la integramos, regulamos y aprovechamos? ¿Y qué lugar le reservamos al ser humano en un mundo donde las máquinas no solo ejecutan tareas, sino que también razonan, crean y hasta aconsejan?
La irrupción de la inteligencia artificial ha desbordado los marcos tradicionales de adopción tecnológica. No estamos simplemente ante una herramienta nueva, sino frente a un nuevo tipo de socio cognitivo. Las organizaciones más ágiles ya no se preguntan si usar IA, sino cómo integrarla sin perder el alma del negocio, cómo automatizar sin deshumanizar.
Y como si esto no fuera suficiente, el desarrollo de la IA ocurre en un contexto geopolítico inestable. La llamada Era de las Tarifas no es solo una disputa comercial entre Estados Unidos y China: es también una batalla por el liderazgo tecnológico del siglo XXI.
Restricciones a la exportación de chips avanzados, carreras por modelos fundacionales, bloqueos de inversión y nacionalización de infraestructuras clave son síntomas de esta nueva guerra fría digital. En este escenario, la soberanía tecnológica ya no es un lujo: es una prioridad estratégica, y la inteligencia artificial está en el centro del tablero.
Esto plantea desafíos prácticos. ¿Con datos de qué países se entrenan los modelos? ¿Bajo qué valores culturales? ¿Con qué nivel de transparencia? Lo que parece una decisión técnica es, en realidad, profundamente política.
Las organizaciones enfrentan una paradoja. Por un lado, necesitan subirse al tren de la IA para seguir siendo competitivas. Por otro, temen perder el control, destruir empleos o caer en dilemas éticos complejos. La solución no está en resistirse ni en adoptar la tecnología sin reflexión, sino en comprender que estamos ante un cambio de paradigma. Adoptar IA no es solo una decisión técnica: es una decisión estratégica, cultural y humana.
Las preguntas clave ya no son cuántos tokens consume un modelo o qué tan rápido responde. Son preguntas más profundas:
- ¿Qué tareas queremos delegar y cuáles queremos seguir haciendo?
- ¿Cómo garantizamos que las decisiones automatizadas sean justas, explicables y auditables?
- ¿Qué valores queremos que reflejen nuestros sistemas inteligentes?
En resumen: ya tenemos inteligencia artificial. Ahora nos toca decidir qué tipo de sociedad queremos construir con ella.
4. Competencia, productividad y el nuevo entorno laboral: De la automatización a la aumentación
Durante años, el principal temor ante el avance de la inteligencia artificial fue el reemplazo masivo de empleos. La narrativa era clara: las máquinas automatizarían tareas humanas y dejarían a millones sin trabajo. Si bien esa preocupación no es infundada, la realidad que estamos viviendo es más compleja —y también más esperanzadora.
Más allá de la automatización, emerge una oportunidad poderosa: la aumentación. No se trata solo de delegar tareas a las máquinas, sino de trabajar con ellas, usarlas como copilotos que amplifican nuestras capacidades, mejoran nuestra productividad y nos liberan para enfocarnos en lo que realmente agrega valor.
La IA puede redactar un correo, pero también ayudarte a escribir uno más claro. Puede analizar datos en segundos, pero también ayudarte a interpretarlos con sentido estratégico. Puede resumir un contrato, pero también alertarte de cláusulas inusuales. No se trata solo de sustitución: se trata de amplificación inteligente.
El nuevo factor competitivo
En este contexto, la verdadera competencia no será entre humanos y máquinas, sino entre quienes usan IA eficazmente y quienes no. Como en su momento ocurrió con la computación personal o internet, dominar estas herramientas será un diferenciador clave —tanto a nivel individual como organizacional.
Quienes sepan formular buenas preguntas, delegar con criterio y combinar intuición con análisis algorítmico estarán mejor posicionados. Del mismo modo, las empresas que integren la IA con visión estratégica —no solo para reducir costos, sino para mejorar la experiencia, acelerar la innovación y tomar mejores decisiones— tendrán una ventaja estructural.
Nuevas habilidades para nuevos trabajos
Este cambio también redefine qué significa estar "preparado para el futuro". Ya no basta con programar o tener un título técnico. Las habilidades más valoradas serán la adaptabilidad, el juicio para interpretar respuestas generadas por IA y, sobre todo, aquellas cualidades que las máquinas no pueden replicar: la empatía, la comunicación efectiva, el pensamiento crítico, la creatividad y la ética.
La IA puede procesar millones de documentos, pero no puede entender el trasfondo emocional de una conversación difícil. Puede darte opciones, pero no puede decidir con valores ni asumir responsabilidades humanas.
Un entorno más fluido, pero más incierto
El entorno laboral que emerge es más dinámico, pero también más incierto. Los roles evolucionan rápidamente, las jerarquías se flexibilizan, y la línea entre tareas técnicas y creativas se difumina. Muchos trabajos desaparecerán, sí, pero muchos otros surgirán —algunos que aún ni imaginamos.
La pregunta ya no es si la IA eliminará empleos. La verdadera pregunta es:
¿Qué tipo de trabajo queremos que haga la IA… y qué trabajo queremos seguir haciendo nosotros?
5. Más datos, más decisiones… y más humanidad: Consejos para sobrevivir (y destacar) en la era de las tarifas
Vivimos rodeados de datos. Decidimos con dashboards, medimos con métricas, optimizamos con modelos. Pero, paradójicamente, cuanto más nos apoyamos en la inteligencia artificial, más evidente se vuelve lo que no puede reemplazar: el juicio, la empatía, la intuición. La IA es poderosa, pero no sabe lo que nos importa. Puede predecir tendencias, pero no tiene valores. Puede argumentar con lógica, pero no tiene propósito.
En esta era de sobrecarga informativa, guerras comerciales y algoritmos omnipresentes, lo más escaso —y valioso— es la claridad humana. El verdadero diferencial ya no está solo en saber usar tecnología, sino en saber cuándo no usarla. En reconocer cuándo una decisión requiere contexto, matices o simplemente una conversación cara a cara.
Frente a este escenario, aquí van algunos principios para navegar (y destacar) en la era de la IA y las tarifas:
Aprende a pensar con máquinas, pero no como una máquina. Usa la IA como copiloto, no como piloto automático. La tecnología puede ayudarte a volar más alto, pero solo si tú sigues a cargo del rumbo.
No subcontrates tu criterio. Delega tareas, pero no delegues tu responsabilidad de entender lo que haces y por qué lo haces.
Cultiva lo que no se puede automatizar. La empatía, la creatividad, la capacidad de conectar ideas dispares… son ventajas evolutivas. Y ahora, también lo son laborales.
Sigue aprendiendo, incluso lo que no es útil hoy. El mundo cambia rápido. Lo que parece inútil hoy, puede ser esencial mañana. El pensamiento lateral y la curiosidad son activos estratégicos.
Prepara tu lugar en el sistema. Ya no basta con tener un currículum. Necesitas un rol claro en una red de valor, saber qué aportas y a quién, en un entorno que mezcla humanos, máquinas y mercados cada vez más inestables.
En tiempos donde todo parece moverse más rápido de lo que podemos procesar, lo más revolucionario quizás no sea adoptar la próxima gran herramienta… sino detenerse a pensar, con calma, en lo que realmente queremos construir.
Epílogo: construir con inteligencia
La inteligencia artificial no es el final de nada. Es el comienzo de una nueva etapa: más incierta, más exigente, pero también más llena de posibilidades. No se trata de competir contra las máquinas, sino de redefinir lo que significa ser inteligente, ser humano, ser relevante.
Tenemos a disposición herramientas extraordinarias. Pero el verdadero reto no está en dominarlas, sino en usarlas para construir una sociedad más justa, más creativa y más consciente. Una donde los datos informen, pero no dicten. Donde la tecnología potencie, pero no sustituya. Donde el progreso no se mida solo en velocidad, sino también en dirección.
La inteligencia artificial ya está aquí. Ahora nos toca a nosotros ser más inteligentes.