- entaina
- Posts
- Cuando la adopción de IA deja de ser opcional
Cuando la adopción de IA deja de ser opcional
De voluntario a obligatorio
Hay un patrón claro en las empresas más avanzadas.
En 2024, usar IA era una invitación.
En 2025, una expectativa.
En 2026, ya es un criterio de evaluación.
Google, Meta, Microsoft, Amazon, Salesforce y Accenture están vinculando el uso de IA a desempeño, promociones y contratación.
El mensaje es simple: usar IA ya no es una ventaja. Es el mínimo.
La cuestión no es si esto llegará a tu empresa.
Es cómo hacerlo sin romper la confianza que necesitas para que funcione.
El punto de inflexión
El cambio ocurre cuando la IA deja de ser opcional.
Según datos recientes, el 42% de managers tecnológicos ya espera uso de IA en evaluaciones de desempeño, frente al 32% ocho meses antes.
No es una tendencia lenta. Es una aceleración.
Ejemplos concretos:
AWS muestra dashboards de uso por empleado
Salesforce obliga a usar agentes de IA en procesos internos
Accenture vincula adopción a promociones y ha formado al 70% de su plantilla (550.000 personas) con una inversión de $1.000M al año
Cuando esto ocurre, la IA deja de ser una herramienta.
Se convierte en estándar operativo.
Tres formas de hacerlo
1. Medir uso
Dashboards, métricas, actividad.
Funciona porque hace visible el comportamiento.
Pero tiene un problema: si mides actividad, obtienes actividad. No impacto.
2. Evaluar desempeño
Integrar IA en performance reviews.
Esto cambia comportamiento rápido.
Porque lo que se evalúa se prioriza.
Pero sin formación previa, es injusto.
3. Filtrar contratación
Evaluar uso de IA en entrevistas.
Eleva el nivel desde el primer día.
Pero puede excluir talento válido sin acceso previo.
La trampa: mandatar sin habilitar
Aquí es donde la mayoría fallará.
Promover la adopción mientras se habla de reducir plantilla es contradictorio.
La lectura del empleado es clara:
"Me pides que use una herramienta que puede sustituirme".
La reacción no es adopción.
Es resistencia.
Investigadores de Wharton lo resumen bien: nadie adopta de forma genuina algo que percibe como amenaza directa.
Además, el impacto es real.
El miedo a la IA reduce la retención de talento y deteriora la adopción.
La alternativa que sí funciona: normalizar antes de imponer
Hay una secuencia que funciona mejor.
Primero:
Demostrar valor en casos reales
Dar acceso a herramientas útiles
Formar con contexto
Después:
Hacer visible quién mejora resultados con IA
Generar presión social positiva
Y solo entonces:
Formalizar expectativas
Cuando el diferencial de calidad se vuelve evidente, la adopción deja de necesitar empuje.
El problema de bloquear IA
Bloquear herramientas no elimina su uso. Elimina la visibilidad.
Casos como Autodesk lo demuestran: empleados usando herramientas prohibidas fuera del sistema.
Eso es shadow AI. Y es más peligroso que habilitar.
Porque pierdes control sobre datos, procesos y riesgos.
Cómo hacerlo bien
Hay un orden.
Habilitar
Formar
Normalizar
Formalizar
Si inviertes el orden, generas rechazo.
Si lo respetas, generas adopción.
Lo que realmente está en juego
Este no es un cambio tecnológico. Es un cambio cultural.
Puedes obligar a la gente a usar una herramienta. Pero no puedes obligarla a usarla bien. Eso solo ocurre cuando confían en que les hace mejores. Si esa confianza existe, la adopción escala. Si no, ninguna política lo arregla.
Referencias:
WSJ: Tech Companies Enforcing AI Use - Google/Meta/Amazon/Accenture mandatos, 42% managers, Autodesk/Cursor, Conductor tests
Accenture Promotions Linked to AI Tools - $1B/año formación, 550K/780K formados, regular adoption para promoción
Enrique Dans: IA, el Nuevo Contrato Laboral - Normalización cultural, transparencia radical, IE University
OECD Digital Education Outlook 2026 - 94% universitarios, 68% teens, políticas adaptativas
WSJ/Wharton: "Do we really think they'll adopt this?" - Contradicción mandato + reducción
BearingPoint: Middle Managers as Catalysts - Miedo a IA reduce retención 27%, ~$53M/año