Vea También
La revolución que la IA promete generar en nuestro trabajo no la provoca la herramienta, sino nuestra actitud ante ella. No es la hoja de cálculo, es cómo nos planteamos nuestra relación con ella. Lo mismo ocurre con la inteligencia artificial generativa.
La herramienta cambia, pero es nuestra actitud la que marca la diferencia, porque cualquier modelo grande de lenguaje tipo GPT puede parecer un cuñado que cree saber de todo o un becario que ejecuta con esmero. Sin embargo, no es ni lo uno ni lo otro, sino el papel que queramos darle.
Instinto competitivo o colaborador
Hay usuarios que entran en ChatGPT lanzando retos: “A ver si sabe tanto como yo”. Plantean preguntas tramposas o ambiguas, esperan el fallo y lo celebran con un “aún no está lista para superarme”.
En general, la calidad de la respuesta suele ser un reflejo del conocimiento del usuario que pregunta. Si en su uso de un modelo conversacional utiliza palabras muy específicas de un determinado campo semántico, la respuesta suele ser mucho más ajustada que si la pregunta contiene palabras de uso común. Si actúa como cuñado, recibe respuestas de cuñado, quizá porque ser cuñado es una relación recíproca.
Sin embargo, también es posible usar la IA como un becario aplicado. El responsable del becario le asigna tareas concretas: “Escribe este correo en tono formal”, “Extrae los puntos clave de este texto”, “Genera una tabla con estos datos”. Revisando las respuestas, aprendemos si lo sabe hacer o no y le mostramos cómo mejorar.
Enseñar al becario
De esta manera, con cada día que pasa, podemos ser testigos de cosas nuevas que nuestro asistente conversacional hoy hace y ayer no hacía. Viendo el resultado, poco a poco el jefe confía más en el becario. Pero sigue siendo un becario.
El jefe que sabe mandar, sabe también revisar, ajustar. Y, sobre todo, sabe elegir el momento en el que, si hace falta, dice: “buen trabajo, ahora déjame que lo acabe yo”.
Este enfoque multiplica la productividad. Pero exige relacionarse con una máquina a través de un tipo de liderazgo que ha ido cayendo en el descrédito en las ultimas décadas.
Un buen jefe
Es necesario que el humano, en su relación con el chatbot, actúe como un líder que sabe dividir tareas, evaluar resultados y asumir la responsabilidad final. Debe ser un líder con estilo basado en estructuración de tareas, proporcionando instrucciones claras, supervisión constante e intervención final.
No se trata de persuadir ni de hacer participar. Y, desde luego, no se puede –y confío que nunca se pueda– delegar por completo en la máquina.
Jugar en equipo
Muchos equipos funcionan bien porque combinan perfiles distintos: quien lidera, quien ejecuta, quien innova. Esta visión, desarrollada por el investigador británico Raymond Belbin, ayuda a identificar roles clave. Si aplicáramos esta teoría a ChatGPT, probablemente encajaría como “cerebro” o “investigador de recursos”: propone ideas, explora caminos, genera alternativas.
Aunque, si usamos el brainstorming para implicar al equipo humano, entonces utilizar un GPT puede resultar contraproducente: acelera el proceso, sí, pero desincentiva la participación activa.
No se trata solo de emplear IA para pensar más rápido, sino de decidir cuándo usarla y cuándo no. Del mismo modo que no invitas a un externo a una sesión de team building si lo que necesitas es fortalecer vínculos, no usas un GPT si lo importante es el proceso compartido.
Por otro lado, el equipo extendido con un sistema de inteligencia artificial tiene la ventaja de que le puedo hacer entrar o salir a voluntad sin que se ponga celoso.
A mí me funciona usar ChatGPT para hacer la estructura del código de una página web y, luego, se lo paso a DeepSeek para que lo ordene y embellezca. Son dos miembros más del equipo que (todavía) no se hablan entre sí.
Funciones especializadas
Asignar a cada herramienta una tarea según su perfil es parte de la nueva alfabetización digital. Si necesitas diseño gráfico, usa Midjourney o DALL·E, pero si quieres una presentación visual, prueba Gamma o Tome AI.
No todas las tecnologías sirven para lo mismo y, por tanto, debemos asumir un nuevo rol en el equipo: el de gestor de inteligencias.
La nueva formación que necesitamos en las universidades y en las organizaciones pasa por saber qué se puede pedir, a qué herramienta, con qué objetivo y hasta dónde confiar.
La frase clave, la que distingue al usuario maduro, no es “a ver si le pillo”, sino: “gracias, está fenomenal, ahora déjame que lo acabe yo”.
La IA, como todo becario, puede ser brillante, pero no lidera. Y hace falta experiencia de líder para introducir al nuevo (o nuevos) en el equipo sin generar disfunciones.

José P. Garcia Sabater no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.