• entaina
  • Posts
  • Cuando la adopción de IA deja de ser opcional

Cuando la adopción de IA deja de ser opcional

De voluntario a obligatorio

Hay un patrón claro en las empresas más avanzadas.

En 2024, usar IA era una invitación.
En 2025, una expectativa.
En 2026, ya es un criterio de evaluación.

Google, Meta, Microsoft, Amazon, Salesforce y Accenture están vinculando el uso de IA a desempeño, promociones y contratación.

El mensaje es simple: usar IA ya no es una ventaja. Es el mínimo.

La cuestión no es si esto llegará a tu empresa.
Es cómo hacerlo sin romper la confianza que necesitas para que funcione.

El punto de inflexión

El cambio ocurre cuando la IA deja de ser opcional.

Según datos recientes, el 42% de managers tecnológicos ya espera uso de IA en evaluaciones de desempeño, frente al 32% ocho meses antes.

No es una tendencia lenta. Es una aceleración.

Ejemplos concretos:

  • AWS muestra dashboards de uso por empleado

  • Salesforce obliga a usar agentes de IA en procesos internos

  • Accenture vincula adopción a promociones y ha formado al 70% de su plantilla (550.000 personas) con una inversión de $1.000M al año

Cuando esto ocurre, la IA deja de ser una herramienta.
Se convierte en estándar operativo.

Tres formas de hacerlo

1. Medir uso

  • Dashboards, métricas, actividad.

  • Funciona porque hace visible el comportamiento.

  • Pero tiene un problema: si mides actividad, obtienes actividad. No impacto.

2. Evaluar desempeño

  • Integrar IA en performance reviews.

  • Esto cambia comportamiento rápido.

  • Porque lo que se evalúa se prioriza.

  • Pero sin formación previa, es injusto.

3. Filtrar contratación

  • Evaluar uso de IA en entrevistas.

  • Eleva el nivel desde el primer día.

  • Pero puede excluir talento válido sin acceso previo.

La trampa: mandatar sin habilitar

Aquí es donde la mayoría fallará.

Promover la adopción mientras se habla de reducir plantilla es contradictorio.

La lectura del empleado es clara:

"Me pides que use una herramienta que puede sustituirme".

La reacción no es adopción.
Es resistencia.

Investigadores de Wharton lo resumen bien: nadie adopta de forma genuina algo que percibe como amenaza directa.

Además, el impacto es real.

El miedo a la IA reduce la retención de talento y deteriora la adopción.

La alternativa que sí funciona: normalizar antes de imponer

Hay una secuencia que funciona mejor.

Primero:

  • Demostrar valor en casos reales

  • Dar acceso a herramientas útiles

  • Formar con contexto

Después:

  • Hacer visible quién mejora resultados con IA

  • Generar presión social positiva

Y solo entonces:

  • Formalizar expectativas

Cuando el diferencial de calidad se vuelve evidente, la adopción deja de necesitar empuje.

El problema de bloquear IA

Bloquear herramientas no elimina su uso. Elimina la visibilidad.

Casos como Autodesk lo demuestran: empleados usando herramientas prohibidas fuera del sistema.

Eso es shadow AI. Y es más peligroso que habilitar.

Porque pierdes control sobre datos, procesos y riesgos.

Cómo hacerlo bien

Hay un orden.

  1. Habilitar

  2. Formar

  3. Normalizar

  4. Formalizar

Si inviertes el orden, generas rechazo.

Si lo respetas, generas adopción.

Lo que realmente está en juego

Este no es un cambio tecnológico. Es un cambio cultural.

Puedes obligar a la gente a usar una herramienta. Pero no puedes obligarla a usarla bien. Eso solo ocurre cuando confían en que les hace mejores. Si esa confianza existe, la adopción escala. Si no, ninguna política lo arregla.

Referencias: