Estrategia AI y el Tech Sandwitch

Fecha de publicación
Cateogría del artículo Eventos y Ferias
Visualizaciones del artículo Leído  273  veces

En el reciente Simposium/Xpo de Gartner se advirtió del alto índice de fracasos para proyectos AI en las empresas y se expusieron estrategias para optimizar su coste y resultados.

Estrategia AI y el Tech Sandwitch

Entre el 4 y 7 de noviembre Gartner celebró su evento anual de IT en Barcelona, reuniendo a cerca de 6.400 asistentes, principalmente CIO y responsables de IT.

Gartner anunció los resultados de un estudio entre ejecutivos IT para los cambios previstos en la inversión, desde el 2024 a 2025. En el apartado de ciberseguridad es donde se producirá el mayor aumento de presupuesto, seguido por la GenAI y la AI.

Se prevé que la inversión en IT en Europa para 2025 será de 1,28 billones de dólares, un 8,7% superior a la de 2024. En este sentido, en 2024 el apartado de seguridad ha supuesto 47.000 millones de dólares mientras que la inversión en la nube pública ha sido de 123.000 millones de dólares.

Sin duda, en este simposio lo que suscitó mayor interés fue la AI, con múltiples ponencias enfocadas tanto en ámbito vertical como horizontal. Algunas de estas aportaciones se describen a continuación, aunque hay que recordar que otros temas IT también estuvieron presentes en el evento (cloud, seguridad, gestión de datos, etc).

La frenética carrera para la adopción de la AI

Daryl Plummer y Alicia Mullery en un momento de la presentación de Gartner

Según Gartner, el interés por la AI es tal, que se están produciendo dos competiciones con tal de conseguir implantar la AI con la mayor celeridad: una de vendedores tecnológicos y otra de empresas usuarias de esta tecnología. Muchas padecen el síndrome de “no quedarse atrás” e intentan “adelantarse” con tal de poder conseguir resultados que tengan impacto en su productividad y beneficios.

En principio, la AI debería producir este efecto en las compañías, tanto en su negocio, la tecnología e incluso en el comportamiento humano. Sen este sentido, según un estudio de Gartner, las ventajas de la AI podrían repercutir en una mejora del 20% en el negocio, 33% en el proceso y un 47% en la productividad de los empleados.

Daryl Plummer, VP Research de Gartner, alertó de que esta intensa carrera puede conducir en muchos casos a la frustración, ya que se constata un índice relativamente alto en los fracasos para la adopción de la AI. Por ejemplo, un 72% de empleados afirma tener problemas para integrar la AI en su rutina de trabajo; aún, es más, los minutos ganados en el día a día, quizá para poder realizar otras tareas, no parece que se estén reflejando en un beneficio palpable para las compañías.

Plummer afirmó con rotundidad que una inversión en proyectos de AI no se parece a una inversión convencional en IT. Se trata de un modelo de inversión no visto hasta la fecha. Gartner estima que los errores en un presupuesto AI pueden ser cuantiosos y rebasar un 500%-1000% el presupuesto original. Además, la promesa de escalabilidad tampoco parece estar garantizada. En muchos casos es difícil avistar resultados a pesar de haber realizado inversiones elevadas. Para proyectar un retorno de la inversión, con determinadas garantías de éxito, habrá que afrontar estos proyectos de otra manera.

Un aspecto interesante es que la experiencia acumulada demuestra que algunas industrias se ven más favorecidas para hacer proyectos AI con gastos incrementales que permitan conseguir resultados consistentes y a corto plazo, como por ejemplo, en el ámbito legal, educación y sanidad.

También hay que puntualizar que los beneficios de la AI no se distribuyen uniformemente entre toda la plantilla. Por ejemplo, en un Call Center. un empleado con una experiencia inferior a 6 meses y que ocupa un puesto de baja complejidad puede aumentar su productividad sensiblemente, mientras que uno con 5 años de experiencia, en el mismo puesto de baja complexidad, no parece tener tanta ventaja. En cualquier caso, Gartner concluye que la máxima ganancia de productividad con GenAI se consigue en dos casos opuestos: empleados con poca experiencia y tareas de baja complejidad o de mucha experiencia y tareas de alta complejidad.

Dos velocidades de adopción AI

 

Cambios en los presupuestos IT de 2025 versus 2024 en EMEA

En este entorno de celeridad, Gartner piensa que cada compañía debe adoptar una estrategia AI y determinar su velocidad óptima para incorporar esta funcionalidad, según distintos factores que se comentan a continuación. Básicamente, se propone decidir entre dos perfiles de adopción:

a) AI Steady pace. Esta opción es adecuada para aquellas empresas que piensan que su modelo de negocio no se va a reinventar con la adopción de la AI. Se trata de sectores que, por el momento, la AI no debería impactar sensiblemente. En este caso, una velocidad de introducción de la IA moderada parece una buena opción

b) AI Accelerated pace. Es para aquellas empresas en que claramente perciben que la IA supondrá una reinvención de su negocio. La velocidad de introducción debería ser mucho más elevada. Los riesgos van a ser altos, pero los beneficios pueden ser cuantiosos.

Está claro que el volumen de inversión y los riesgos asociados van a ser mucho más altos para compañías que apuesten por una AI Accelerated. La ventaja es que estas empresas suelen tener una cultura que permite una mayor tolerancia en la aceptación de fracasos. Por ejemplo, Microsoft, Google o Meta estarían en este grupo acelerado.

En cuanto a establecer prioridades, una empresa AI Steady tendría que centrarse en aumentar la productividad y controlar su factura AI mientras que una AI Accelerated, además de estos dos factores, puede añadir muchos más beneficios e incluso llegar a controlar los costes de AI en tiempo real.

 

Nivel de riesgo versus inversión en TRiSM

Una inquietud que se reflejaba entre los ejecutivos asistentes al evento era cómo controlar los costes de la AI. Gartner estima que el coste de probar un concepto, con tal de asegurar que la idea funcionará cuando se implante, oscila entre 300 mil dólares y 2,9 millones de dólares.

Una ventaja potencial es que muchas aplicaciones ya dispondrán de AI en su oferta. Plummer afirmó que, en 2026, según los resultados de un estudio reciente llevado a cabo por Gartner, el 89% de vendedores de software ya ofrecerá embedded GenAI en sus aplicaciones. Actualmente se estima que tan sólo el 5% lo hace. 

Tech Sandwich: un concepto clarificador

En cualquier caso, las empresas se van a encontrar con una situación en que las aplicaciones de AI procederán de distintos ámbitos, además del suyo propio. Un grupo de aplicaciones AI es la embedded AI instalada en el software de distintos proveedores (SAP, Microsoft, etc). Otro es la AI utilizada en sistemas de adquisición y analítica de datos (Built and Blended AI). Por último, un tercer grupo es el compuesto por la AI aportada desde los departamentos de la compañía relacionados con gestiones de producto, operaciones, así como back office o front office.

Estos tres grupos repartirán sus contribuciones AI en la compañía, con una media de 22%, 43% y 35%, respectivamente. El gran reto de para el departamento IT de la empresa consistirá en poder coordinar, implementar, ejecutar y asegurar el buen funcionamiento de todas estas fuentes dispares de AI.

Para poner más orden en esta cuestión, Gartner propone lo que denomina un Tech Sandwitch. Se trata de un concepto que aporta claridad. Dispone de varias capas y lo representan como un burger de varios pisos. En cierto sentido, es una herramienta que puede ser útil al planificar una estrategia AI.

En la parte inferior del bocadillo, los datos están más centralizados y residen mayoritariamente en las instalaciones de la compañía o las nubes asociadas. Aquí se contará con una infraestructura y plataforma propia de AI, en que convergerán tanto las aplicaciones AI de la empresa como un mix procedente de otras aplicaciones. En cualquier caso, hay una capa compuesta por la propia AI y por una mezcla de modelos distintos AI.

En la parte superior del bocadillo, los datos podrán estar en cualquier sitio (IoT, etc.) y varias embedded AI, además una capa extra de AI asociada BYOAI (Bring Your Ouwn AI)

 Diversas configuraciones del Tech Sandwitch

El núcleo del sandwitch

La parte central del Tech Sandwitch es un punto clave: la denominan TRiSM (Trust, Risk and Security Management). Se refiere básicamente a la gestión y coordinación de la seguridad, veracidad y riesgo de todo el conjunto.

En la actualidad, el Tech Sandwitch de una empresa tiene pocas capas y la mayoría de sus aplicativos AI es embedded. En el futuro, el grosor de las capas se extenderá y su número aumentará.

Aquí es donde Gartner identifica distintas adaptaciones del Tech Sandwitch, en función de la idiosincrasia y necesidades de cada compañía. Veamos algunos ejemplos.

Para empresas AI Steady, especialmente las medianas, se inclinarán por adoptar la tecnología AI que le proporcionarán los vendedores (Vendor Packaged) y el grueso de la capa embedded AI será apreciable. Su estrategia de seguridad apostará por un Human-in-the-Loop para la mayoría de las aplicaciones.

En una empresa pública, relacionada con el ámbito de la salud o gubernamental, la capa TRiSM predominará y será crítica. Aquí un error puede tener consecuencias muy graves.

Para compañías AI Accelerated, las capas embedded AI y Built or Blended AI serán muy importantes, si se compara a los casos anteriores. Por supuesto, la capa TRiSM es crítica en todos los casos, pero las AI Accelerated apostarán por un mayor grado de automatización en este apartado.

En cualquier caso, cada empresa tendrá que determinar la velocidad de transformación que desea y diseñar su Tech Sandwich a medida. Gerard Richter, de la consultora Mckinsey, comentó que incluso está emergiendo el rol de Chief AI Officier en las empresas.

La orquestación de datos: un paso previo para conseguir una AI eficaz

Los directivos asistentes al evento mostraron su preocupación para conseguir implantar con éxito aplicaciones AI que tengan un coste controlado. Alicia Mullery, Distinguished VP Analyst, Chief Research de Gartner, comentó que uno de los aspectos clave para conseguir la máxima eficiencia en la ejecución de la AI es la orquestación de los datos existentes en la compañía.

Se trata de que estos datos tengan un nivel suficiente de integración para que la AI disponga del máximo número de ellos. La orquestación es un reto de calado, ya que los datos suelen estar dispersos en diferentes departamentos de la compañía, con sistemas y formatos distintos, en muchas ocasiones depositados en silos incomunicados. De hecho, Gartner estima que tan solo entre el 10% y el 30% de los datos de una empresa están estructurados.

Si no hay orquestación tendremos una AI con beneficios limitados, ya que cuantos más datos son accesibles para las aplicaciones AI, mayor posibilidad existe de conseguir mejores resultados. El problema para los CIO es que un proyecto para orquestar los datos puede requerir un presupuesto elevado, algo que no se contabiliza en la inversión AI.

Mullery insistió en que, a partir de ahora, será imprescindible disponer de una clara política de gobernanza y gestión de datos para cada compañía, con tal de que, en el futuro, todas las fuentes de datos y su formato queden óptimamente alineadas con las aplicaciones de AI.

 Proyecciones a futuro del modelo de Tech Sandwitch

Otro aspecto a tener en cuenta son los costes de aprendizaje (training) y de inferencia (funcionamiento) para una aplicación AI. Mullery remarcó que, a nivel de aprendizaje, suele ser barato entrenar a un modelo de AI con el contenido de la web, pero recordó los riesgos asociados que esta opción puede acarrear, en cuanto a respuestas erróneas o alucinaciones, por ejemplo.

Para muchas compañías, la carrera de un proyecto de AI comienza por atender el coste de una compañía consultora especializada y le sigue con la prueba de viabilidad del concepto.

Retos emocionales relacionales con la AI

Gartner también advirtió de los potenciales desafíos emocionales que una empresa tendrá que afrontar al adoptar la AI, tanto a nivel de clientes como empleados. En un futuro, muchas compañías requerirán de expertos en comportamiento humano. Los agentes de AI interactuarán con las personas, pudiendo inducir en ellas reacciones de adversidad, desconfianza, miedo u otras emociones, algunas difíciles de gestionar. Mullery destacó que en 2024 predomina la figura del Agente AI, pero que en el cercano 2025, ya habremos entrado en la fase del Experto AI.

Por último, recordó que la AI está madurando, pero que su actual estado se parece más al de un adolescente que, en ciertas aplicaciones, es como si estuviera al volante de un coche deportivo.

No-code y low-code para personalización y último ajuste

En la sala de exposición, la mayoría de stands exhibían letreros relacionados con la AI, aunque el grado de utilización y funcionalidad podía ir de lo anecdótico a lo más intenso. Había empresas relacionadas con software corporativo, plataformas en la nube, ciberseguridad, conectividad, gestión de datos y otro tipo de aplicaciones.

Una tendencia que se observa es el incremento de propuestas no-code o low-code, de la mano de empresas como Mendix (perteneciente a Siemens) o Neptune, entre otras.

El low-code puede ser muy útil para la última milla de implantación de las aplicaciones. Estas funcionalidades permiten ajustar y personalizar a la necesidad específica de cada compañía una aplicación determinada, con rapidez y sin requerir de grandes conocimientos de software.

 Xavier Alcober

Descargas