Bienvenidos a Sustancia. Esta semana, la IA se consolida en el uso diario empresarial y profesional, alejándose del mero titular para integrarse en herramientas y procesos. Analizamos su impacto real y las implicaciones estratégicas y regulatorias.

El Semáforo de la IA y Radar España

🟡 Samsung integra IA conversacional en One UI 8.5 para que el móvil se explique a sí mismo

  • En 1 minuto: One UI 8.5 de Samsung incorpora un asistente de ajustes por voz que no solo localiza configuraciones, sino que explica por qué un determinado ajuste está causando un comportamiento inesperado en el dispositivo. El análisis apunta a un cambio de paradigma: ante la imposibilidad de simplificar sistemas operativos cada vez más complejos, los fabricantes optan por añadir una capa de IA que actúe como intérprete entre el usuario y la máquina. Google ya experimenta con funciones similares en Android nativo. El siguiente paso lógico, que Samsung ya esboza con sus 'agentic upgrades' en los Galaxy S26, es que esa IA pase de explicar decisiones a tomarlas directamente en nombre del usuario.

  • Radar local: Para empresas españolas que gestionan flotas de dispositivos móviles corporativos, esta evolución tiene implicaciones directas en dos frentes: primero, en formación y soporte técnico, donde una IA embebida en el propio dispositivo podría reducir las consultas al servicio de ayuda interno; segundo, y más relevante desde la perspectiva regulatoria, los sistemas agénticos que 'toman decisiones por el usuario' deberán examinarse bajo el AI Act europeo, que clasifica como de mayor riesgo los sistemas autónomos que actúan sin supervisión humana explícita. Las empresas españolas que adopten estos dispositivos en entornos sensibles deberán evaluar hasta dónde permiten actuar a la IA del teléfono sin intervención del empleado.


🟡 El 63% de los trabajadores españoles ya usa IA habitualmente en su trabajo, y cada vez saben mejor lo que tienen entre manos

  • En 1 minuto: El IV Informe de InfoJobs revela que la adopción de IA en el entorno laboral español ha pasado del 50% en 2024 al 63% en 2026. Más allá del dato de uso, lo relevante es el salto en comprensión: quienes afirman no conocer ni saber usar herramientas de IA han caído del 48% al 28% en un solo año. ChatGPT lidera el ranking de herramientas con un 52% de uso, mientras que la traducción automática cede su trono. La brecha generacional es notable: el 63% de menores de 35 años usa IA frente al 47% de mayores. Como contrapartida, el miedo al desplazamiento laboral crece: el 39% cree que habrá despidos puntuales, frente al 30% del año anterior, y ese porcentaje sube al 46% entre quienes ya usan IA a diario, lo que sugiere que cuanto más se conoce la tecnología, más real se percibe la amenaza.

  • Radar local: España se consolida como un mercado con adopción de IA más madura de lo que el discurso oficial suele reconocer. Para los directivos españoles, el dato clave no es el porcentaje de uso, sino la reducción de la brecha entre uso real y uso declarado: los empleados ya identifican qué es IA y qué no, lo que dificulta ignorar o minimizar su impacto en los procesos internos. En el plano regulatorio, este nivel de adopción acelerada pone presión sobre las empresas para cumplir con el AI Act europeo, especialmente en lo relativo a transparencia y formación de empleados sobre sistemas de IA que ya están usando en su día a día. La creciente preocupación por el empleo también anticipa tensiones sindicales y negociaciones colectivas en las que la IA será un eje central en los próximos meses.


🟡 Glosario 2025: Los términos de IA que sacudieron el año, del 'vibe coding' a la 'psicosis por chatbot'

  • En 1 minuto: Un repaso analítico a los conceptos de inteligencia artificial que dominaron 2025: la 'superinteligencia' como nuevo eufemismo del hype corporativo (Meta y Microsoft prometiendo cientos de miles de millones para alcanzarla sin definirla bien); el 'vibe coding' o programación por prompts sin conocimientos técnicos, tan accesible como potencialmente insegura; la emergente 'psicosis por chatbot', fenómeno no reconocido médicamente pero con crecientes evidencias y demandas judiciales contra empresas de IA; y los modelos de 'razonamiento' (reasoning models), liderados por OpenAI con o1/o3 y democratizados por DeepSeek con su R1 de código abierto. El denominador común: un sector que avanza a velocidad de vértigo generando terminología nueva antes de que la anterior sea comprendida o regulada.

  • Radar local: Para directivos españoles, este glosario tiene implicaciones directas: 1) La carrera hacia la 'superinteligencia' de Meta y Microsoft intensifica la dependencia europea de infraestructura y talento estadounidense, agravando la brecha de soberanía tecnológica que preocupa a Bruselas. 2) El 'vibe coding' plantea riesgos reales de ciberseguridad en pymes españolas que adopten código generado por IA sin supervisión técnica, un vector de vulnerabilidad creciente. 3) Los casos de 'psicosis por chatbot' y las demandas judiciales asociadas son exactamente el tipo de riesgo que el AI Act de la UE busca mitigar: los sistemas de IA de interacción emocional prolongada podrían clasificarse como alto riesgo bajo la normativa europea. 4) La irrupción de DeepSeek R1 como modelo de razonamiento open source reequilibra parcialmente el acceso para empresas europeas, pero su origen chino genera preguntas sobre cumplimiento del RGPD y soberanía de datos.


🟡 El verdadero reto de la IA en la empresa: los sistemas heredados que nadie quiere tocar

  • En 1 minuto: Mientras la industria celebra las bondades de desarrollar con IA, existe un problema silencioso que afecta a la mayoría de las empresas maduras: sus bases de código legacy son anteriores a las propias herramientas de IA. El artículo plantea que la adopción real de la IA en el desarrollo de software no se mide en proyectos nuevos y relucientes, sino en la capacidad de estas herramientas para navegar, comprender y modernizar código antiguo, mal documentado y lleno de deuda técnica. Este es el verdadero campo de batalla donde la IA debe demostrar su valor empresarial.

  • Radar local: Para las empresas españolas, especialmente en sectores con larga trayectoria digital como banca, utilities o Administración Pública, este debate es de máxima relevancia. Organismos como el BBVA, Repsol o las propias administraciones autonómicas acumulan décadas de sistemas heredados (COBOL, sistemas mainframe, ERP customizados). Invertir en herramientas de IA para modernización de código sin evaluar su compatibilidad con entornos legacy es un error estratégico y financiero. El AI Act europeo, además, exigirá trazabilidad y documentación de sistemas de IA usados en procesos críticos, lo que complica aún más la integración en entornos opacos y antiguos.


🟡 El movimiento 'QuitGPT' amenaza a OpenAI: activistas organizan boicot masivo contra ChatGPT por sus vínculos con la Administración Trump

  • En 1 minuto: Una campaña activista llamada QuitGPT está ganando tracción en EE UU, instando a usuarios a cancelar sus suscripciones a ChatGPT Plus. Los motivos son dobles: por un lado, el descontento técnico real con el rendimiento de modelos recientes como GPT-5.2 y la actitud 'servil' del chatbot; por otro, el rechazo político a los vínculos de OpenAI con la Administración Trump, incluyendo una donación del presidente de la compañía, Greg Brockman, al super PAC MAGA Inc., y el uso de ChatGPT-4 por parte del ICE para filtrar currículos de inmigrantes. La campaña acumula 36 millones de visualizaciones en Instagram y más de 17.000 inscritos. Con cerca de 900 millones de usuarios activos semanales, el impacto financiero directo es aún marginal, pero el daño reputacional y la convergencia entre crítica técnica y crítica política representa una señal de alerta estratégica para OpenAI.

  • Radar local: Para directivos españoles y europeos, esta noticia tiene una doble lectura relevante. Primero, confirma que la dependencia de un único proveedor de IA —especialmente estadounidense— expone a las organizaciones a riesgos reputacionales por decisiones políticas ajenas. El Reglamento de IA de la UE y la narrativa de 'soberanía digital' europea cobran más sentido en este contexto: diversificar hacia proveedores europeos como Mistral AI o modelos open source reduce esta exposición. Segundo, el uso de ChatGPT-4 por parte del ICE para procesos de selección de personas aviva el debate sobre el uso ético de la IA en decisiones de alto impacto, un debate que en Europa ya está regulado bajo el AI Act (sistemas de 'alto riesgo'). Las empresas españolas que usen ChatGPT en RRHH o en procesos sensibles deben revisar su gobernanza de IA y su comunicación externa ante posibles presiones similares de empleados o clientes.


🟡 Cómo la IA está redefiniendo el SEO y el descubrimiento de contenidos en 2026

  • En 1 minuto: Un artículo de Medium analiza el impacto de los sistemas basados en inteligencia artificial sobre el funcionamiento de los motores de búsqueda y la forma en que los usuarios acceden al contenido online. La pieza apunta a una transformación profunda del SEO tradicional, donde los algoritmos de IA y los modelos de lenguaje están desplazando las búsquedas por palabras clave clásicas hacia experiencias de búsqueda conversacional y generativa. Sin embargo, el contenido disponible es un fragmento de presentación sin datos concretos ni análisis de profundidad verificables, lo que limita su valor informativo real.

  • Radar local: Para empresas españolas con presencia digital, la transición hacia la búsqueda generativa impulsada por IA (como Google SGE o Bing Copilot) supone un reto estratégico inmediato: las estrategias de posicionamiento basadas en SEO convencional están perdiendo eficacia. Los departamentos de marketing y las agencias digitales en España deben replantear sus modelos de visibilidad online. Adicionalmente, el AI Act europeo podría imponer requisitos de transparencia sobre cómo los sistemas de IA recomiendan y priorizan contenidos, afectando a plataformas que operan en el mercado comunitario.


🔴 El mito del despido por IA: una fintech despidió a 700 empleados por titular, no por automatización real

  • En 1 minuto: Un gigante fintech despidió a 700 personas anunciándolo como un triunfo de la IA, cosechando titulares y atención mediática. La realidad: meses después contactó silenciosamente a muchos de esos empleados para recontratarlos, pero a salarios más bajos. El artículo argumenta que la narrativa de 'la IA nos reemplaza' está siendo instrumentalizada por CEOs para justificar recortes de costes que tienen motivaciones puramente financieras, usando la IA como coartada tecnológica ante inversores y medios.

  • Radar local: Este patrón es directamente relevante para el mercado laboral español y la aplicación del AI Act europeo. La UE exige transparencia sobre el uso real de sistemas de IA en decisiones que afectan a trabajadores (Art. 22 del RGPD y disposiciones del AI Act sobre sistemas de alto riesgo en RRHH). Las empresas españolas que aleguen automatización para justificar EREs deberán demostrar su uso efectivo ante la Inspección de Trabajo y los comités de empresa, so pena de impugnaciones judiciales. El caso ilustra un riesgo reputacional y legal creciente: usar 'la IA lo hizo' como escudo sin sustancia técnica detrás.


🟡 ChatGPT no reemplazó mi puesto de trabajo, pero sí el 30% de mis tareas

  • En 1 minuto: Un profesional comparte su experiencia práctica con ChatGPT, describiendo cómo el modelo de OpenAI ha automatizado aproximadamente un tercio de sus tareas cotidianas sin llegar a eliminar su puesto de trabajo. El testimonio ilustra el debate real sobre la sustitución laboral por IA: no es un reemplazo total, sino una redistribución del trabajo humano hacia tareas de mayor valor añadido. La pieza refleja una tendencia creciente entre profesionales del conocimiento que están renegociando su relación con la productividad gracias a los LLMs.

  • Radar local: Este patrón de automatización parcial es directamente relevante para las empresas españolas. Según datos del INE y estudios de la OCDE, los trabajadores del conocimiento en sectores como consultoría, marketing, servicios jurídicos y administración son los más expuestos a esta 'sustitución del 30%'. Para los directivos españoles, el reto no es si adoptar estas herramientas, sino cómo redefinir roles, medir la productividad real y cumplir con el AI Act europeo en materia de transparencia cuando estas herramientas asisten en decisiones de negocio. Las empresas que no gestionen esta transición de forma estructurada perderán competitividad frente a las que sí lo hagan.


🔴 El Pentágono presiona a Anthropic para usar Claude sin restricciones éticas, invocando la defensa nacional

  • En 1 minuto: El Departamento de Defensa de EE.UU. ha dado un ultimátum a Anthropic para que permita el uso irrestricto de sus modelos de IA —incluido Claude— con fines militares, eliminando las salvaguardas éticas que prohíben vigilancia masiva y armamento autónomo. El Pentágono podría ampararse en la Defense Production Act de 1950 para forzar esta cesión, argumentando seguridad nacional. Anthropic se encuentra atrapada: ya está profundamente integrada en sistemas del Departamento de Defensa tras ofrecer sus modelos por un dólar simbólico a cambio de un contrato de 200 millones. El caso abre un debate de fondo: ¿puede el Estado apropiarse de tecnología privada de IA cuando considera que está en juego la seguridad nacional? La respuesta legal, en EE.UU., parece ser que sí.

  • Radar local: Este caso es una señal de alarma directa para las empresas españolas y europeas que usan o desarrollan IA con proveedores estadounidenses. Si el Gobierno de EE.UU. puede forzar a Anthropic a eliminar sus límites éticos y operar bajo mandato federal, cualquier empresa española que use Claude o modelos similares integrados en infraestructuras del Pentágono queda expuesta a que esas herramientas operen bajo criterios radicalmente distintos a los que exige la normativa europea. El AI Act de la UE, precisamente, establece prohibiciones estrictas sobre sistemas de IA de alto riesgo en contextos de seguridad. La tensión entre la doctrina de 'seguridad nacional' estadounidense y el marco regulatorio europeo se vuelve aquí muy concreta: las empresas deben auditar qué modelos usan, bajo qué condiciones contractuales y qué ocurre con sus datos si esos modelos pasan a estar bajo control gubernamental extranjero.


🔴 Un fallo en los servidores de DJI expuso datos de 6.700 robots aspiradores en 24 países, descubierto con ayuda de IA

  • En 1 minuto: Un directivo de estrategia de IA descubrió casi por accidente una vulnerabilidad crítica en la infraestructura de DJI ROMO: al desarrollar una app casera para controlar su aspiradora con un mando de PS5, obtuvo acceso no autorizado a datos de más de 6.700 dispositivos en 24 países en apenas nueve minutos. La herramienta de IA Claude Code le ayudó a realizar la ingeniería inversa del protocolo de comunicación. El fallo, un problema de validación de permisos en el backend MQTT, permitía ver número de serie, estancias limpiadas, distancias recorridas y horarios de carga de dispositivos ajenos. DJI lanzó parches en febrero y asegura que el acceso no autorizado fue 'extremadamente raro', aunque admite el fallo. El incidente reaviva el debate sobre qué controles de seguridad se aplican antes de lanzar dispositivos domésticos con sensores, cámara y conectividad permanente.

  • Radar local: El impacto para España y la UE es directo y doble. Primero, los datos de dispositivos europeos —incluidos los españoles— se almacenan en servidores AWS ubicados en Estados Unidos, lo que plantea interrogantes inmediatos bajo el RGPD sobre la base legal de esa transferencia internacional de datos y las garantías aplicadas. Segundo, el AI Act y la normativa de ciberseguridad europea (Cyber Resilience Act, en fase de implementación) exigen controles de seguridad 'by design' en productos conectados; este incidente es un caso de estudio de lo que esas normas pretenden evitar. Las empresas españolas que integren dispositivos IoT con IA en sus operaciones (hoteles, oficinas, instalaciones industriales) deben revisar los acuerdos de tratamiento de datos con fabricantes y exigir auditorías de seguridad antes de desplegar esta tecnología.


🟡 El CEO de Mistral advierte: 'Estamos en riesgo' ante el dominio estadounidense en IA

  • En 1 minuto: Arthur Mensch, CEO de la startup francesa Mistral AI, ha lanzado una advertencia sobre el peligro que supone la hegemonía de las grandes tecnológicas estadounidenses en el desarrollo de la inteligencia artificial. Mensch argumenta que la concentración del poder en IA en manos de pocas compañías norteamericanas representa una amenaza para la autonomía tecnológica y la soberanía digital de Europa. El directivo aboga por fortalecer el ecosistema europeo de IA como contrapeso necesario, posicionando a Mistral como un actor clave en esa alternativa. La advertencia llega en un contexto de creciente debate sobre dependencia tecnológica y el papel que debe jugar Europa en la carrera global por la IA.

  • Radar local: Esta declaración tiene una relevancia directa para España y la UE. Mistral es el principal campeón europeo en modelos de lenguaje de gran escala (LLMs) y sus advertencias refuerzan el argumentario detrás del AI Act europeo y de iniciativas como el programa de supercomputación de la UE. Para empresas españolas, la dependencia de modelos de OpenAI, Google o Anthropic implica riesgos regulatorios, de privacidad de datos y de continuidad de negocio. El discurso de Mensch es un recordatorio de que apostar por alternativas europeas como Mistral no es solo ideología, sino una decisión estratégica con implicaciones reales en cumplimiento normativo y soberanía de los datos.


🟡 Ex-científico de DeepMind busca 1.000 millones de dólares para su startup de 'inteligencia sobrehumana'

  • En 1 minuto: Un ex-científico de DeepMind está en proceso de captación de financiación por valor de 1.000 millones de dólares para lanzar una nueva startup centrada en el desarrollo de lo que denomina 'inteligencia sobrehumana'. La noticia se enmarca en la tendencia de ex-empleados de grandes laboratorios de IA que abandonan sus empresas para fundar competidores directos, atraídos por valoraciones astronómicas y el apetito inversor que aún rodea al sector. Sin embargo, el término 'inteligencia sobrehumana' merece escepticismo: en ausencia de detalles técnicos concretos, funciona más como reclamo para inversores que como descriptor científico riguroso. La cifra solicitada refleja la escalada de las apuestas en la carrera por la AGI y la presión competitiva entre laboratorios como OpenAI, Anthropic, Google DeepMind y los emergentes.

  • Radar local: Para empresas españolas y europeas, esta noticia refuerza una tendencia preocupante: el talento de IA de primer nivel —incluso el formado en organizaciones europeas como DeepMind— sigue migrando hacia vehículos de inversión principalmente estadounidenses. Esto ahonda la brecha de capacidades con Europa. En el contexto del AI Act europeo, startups de este tipo que persigan sistemas de 'inteligencia general o sobrehumana' podrían quedar clasificadas en las categorías de mayor riesgo regulatorio, lo que desincentiva su establecimiento en la UE. Los directivos españoles deben vigilar si esta startup busca posteriormente expansión en Europa y qué implicaciones de cumplimiento normativo tendría su tecnología.


🟡 El error crítico que cometen las startups de IA con la ejecución de agentes autónomos

  • En 1 minuto: La mayoría de startups de IA centran sus esfuerzos en hacer agentes más inteligentes, pero descuidan un factor esencial: la responsabilidad y la trazabilidad de sus acciones. El argumento central es que un agente de IA que puede actuar de forma autónoma debe ser también auditable y accountable. Sin mecanismos claros de supervisión, los fallos no solo son técnicos, sino que generan riesgos legales y de confianza que pueden hundir un producto. El futuro de los agentes de IA no lo ganarán los más capaces, sino los más fiables.

  • Radar local: Este planteamiento conecta directamente con los requisitos del AI Act europeo, especialmente para sistemas de IA clasificados como de alto riesgo. Las empresas españolas que desarrollen o adopten agentes autónomos deberán implementar obligatoriamente registros de actividad, mecanismos de supervisión humana y trazabilidad de decisiones. Ignorar la 'accountability' del agente no es solo un error de diseño de producto: a partir de 2026, puede suponer incumplimiento normativo y sanciones significativas. Las startups españolas del sector deben incorporar estos requisitos desde la fase de arquitectura, no como parche posterior.


🟡 Moltbook: ¿Revolución de agentes IA o simplemente un Pokémon para entusiastas?

  • En 1 minuto: Moltbook, una plataforma poblada por agentes de IA que interactuaban entre sí, fue presentada por figuras influyentes del sector tech como un anticipo del futuro de la IA agéntica. Sin embargo, el análisis de MIT Technology Review concluye que fue más ruido que señal: estaba plagada de estafas cripto, muchas publicaciones eran escritas por humanos haciéndose pasar por IA, y los agentes carecían de coordinación, objetivos compartidos y memoria compartida, elementos imprescindibles para una inteligencia colectiva funcional. Expertos como Jason Schloetzer, de Georgetown, lo definen como un 'deporte para espectadores de modelos de lenguaje', comparable al viral Twitch Plays Pokémon de 2014: muy popular, pero sin implicaciones profundas para el futuro. La pregunta real que deja el experimento es hasta qué punto los usuarios llevarán a la IA al límite simplemente por entretenimiento.

  • Radar local: Para directivos españoles y europeos, Moltbook es una señal de alerta sobre el riesgo de dejarse llevar por el hype en torno a la IA agéntica. El AI Act europeo ya exige transparencia sobre si un sistema es IA o humano; el hecho de que en Moltbook muchos agentes fueran en realidad personas ilustra exactamente el tipo de engaño que la regulación busca combatir. Empresas españolas que evalúen invertir en plataformas de agentes IA deben exigir evidencia de casos de uso reales y medibles, no experimentos virales. La falta de memoria compartida y coordinación entre agentes evidenciada aquí también subraya la inmadurez actual del ecosistema agéntico, relevante para quienes planeen despliegues empresariales de este tipo de arquitecturas en el corto plazo.


🔴 Apple integra silenciosamente Gemini de Google en Siri: qué significa realmente para el ecosistema de IA móvil

  • En 1 minuto: Apple habría integrado el modelo de IA Gemini de Google en Siri, lo que supone un giro estratégico mayúsculo: la empresa que históricamente ha controlado al milímetro su stack tecnológico delega una función nuclear —el asistente de voz— en su principal competidor. Esto revela que Apple no ha logrado desarrollar un LLM competitivo propio a tiempo, y que la carrera por la IA en dispositivos móviles está forzando alianzas impensables hace apenas dos años. El movimiento tiene implicaciones directas en privacidad, dependencia tecnológica y el equilibrio de poder entre los dos gigantes.

  • Radar local: Para las empresas españolas, esta integración plantea una alerta regulatoria inmediata: si Siri procesa datos de usuarios europeos a través de los modelos de Google, entra en juego el cumplimiento del RGPD y, potencialmente, del AI Act europeo. La concentración de capacidades de IA conversacional en manos de dos actores estadounidenses (Apple + Google) refuerza la dependencia tecnológica de Europa y choca frontalmente con los objetivos de soberanía digital impulsados desde Bruselas. Los departamentos de compliance y los DPOs de empresas que usen dispositivos Apple en entornos corporativos deberán revisar sus análisis de riesgo y transferencias de datos.


El Filtro No-Ruido

Lo que todos comparten pero que a tu negocio no le afecta:

Hemos ignorado el ruido de la IA esta semana, como las promesas de 'agentes que hacen el trabajo por ti' o los canales de YouTube de IA. El verdadero avance no está en el marketing, sino en la integración práctica y las consecuencias regulatorias que empezamos a ver.

Cierre de Edición

El 63% de los profesionales españoles ya usa IA, una cifra que demuestra que la tecnología ha dejado de ser una promesa para convertirse en una herramienta de trabajo habitual, obligando a repensar roles y estrategias empresariales.

Keep Reading