En medio de una ola de despidos masivos en Microsoft y sus filiales como Xbox, un alto ejecutivo provocó indignación al sugerir que los empleados afectados usaran inteligencia artificial como apoyo emocional y herramienta para reinsertarse laboralmente. Matt Turnbull, productor ejecutivo de Xbox Game Studios, publicó en LinkedIn una guía con prompts para ChatGPT y Copilot dirigida a quienes perdieron su empleo, argumentando que estas herramientas podrían «reducir la carga emocional». La publicación, luego eliminada, generó críticas por su insensibilidad en un contexto donde la propia IA ha sido señalada como causante de miles de despidos en el sector tecnológico.
Turnbull defendió su postura afirmando que «sería negligente» no compartir recursos útiles en esta crisis. Entre sus sugerencias figuraban usar chatbots para practicar entrevistas laborales, redactar cartas de renuncia o incluso gestionar el estrés post-despido. «No tienes que hacerlo solo», escribió, reconociendo al mismo tiempo las controversias que generan estas tecnologías. Sin embargo, la analogía entre el apoyo humano y el asistencialismo algorítmico cayó mal entre una comunidad ya resentida por los recientes recortes, donde estudios enteros de Xbox fueron cerrados.
La reacción no se hizo esperar. Usuarios y expertos señalaron la ironía de recomendar IA como paliativo cuando su avance está directamente vinculado a la eliminación de puestos de trabajo. «Es como echar gasolina al fuego», comentó un desarrollador bajo anonimato. Otros destacaron el riesgo de normalizar herramientas que, pese a simular empatía, carecen de comprensión real del sufrimiento humano. Psicólogos advierten sobre los peligros de sustituir terapia profesional con conversaciones automatizadas, aunque reconocen su uso creciente como «primer auxilio» emocional.
¿Terapeuta digital o parche tecnológico?
La paradoja es evidente: mientras empresas como Microsoft impulsan la IA generativa, sus empleados enfrentan las consecuencias de esa misma automatización. Turnbull no es el único en ver potencial terapéutico en estos sistemas. Olivia Uwamahoro Williams, experta en IA de la Universidad de West Georgia, afirma que modelos como GPT-4 ofrecen respuestas «sorprendentemente similares a las de un consejero». No obstante, subraya que son solo un complemento: «Nada reemplaza la conexión humana».
El caso refleja un dilema mayor en la era de la automatización. Aunque el 63% de los usuarios de ChatGPT admiten usarlo para aliviar ansiedad (según un estudio de Health), las empresas creadoras —incluyendo OpenAI y Google— advierten sobre sus limitaciones éticas. Para los despedidos de Xbox, el mensaje de Turnbull quizás resulte amargo: la misma tecnología que contribuyó a su salida ahora se ofrece como consuelo. Como escribió un exempleado: «Necesitamos soluciones reales, no prompts de condolencia».
Con información de: Hipertextual.com