Observatorio de tecnologías emergentes

Preguntas de actualidad sobre IA y tecnologías emergentes

Los expertos de Gartner comparten respuestas rápidas a las preguntas que sus clientes les han hecho recientemente sobre las tecnologías emergentes.

Junio de 2025

¿Qué es la inteligencia artificial general (IAG) y en qué se diferencia de la IA débil?

Gartner define la inteligencia artificial general (IAG) como la capacidad (actualmente hipotética) de una máquina para igualar o superar las capacidades humanas en todas las tareas cognitivas. Además, la IAG podrá aprender y adaptarse de forma autónoma para alcanzar objetivos predeterminados o nuevos en una amplia variedad de entornos físicos y virtuales.

Por otro lado, la IA débil (también conocida como IA estrecha) está diseñada para realizar tareas específicas (como reconocer imágenes, traducir idiomas o jugar al ajedrez) o resolver problemas concretos. Los sistemas de IA débil se basan en el aprendizaje supervisado y están limitados a los datos con los que han sido entrenados. No pueden aprender ni adaptarse más allá de su programación y entrenamiento específicos, lo que los hace menos flexibles en situaciones desconocidas.

La IAG es, por ahora, teórica: ningún sistema actual incorpora capacidades de IAG. Aunque la búsqueda de la IAG suele ir ligada a objetivos ambiciosos en la investigación y el desarrollo de la IA, esta tecnología plantea importantes cuestiones éticas, sociales y normativas. Según Gartner, la IAG no se hará realidad en los próximos 10 años. Aun así, habrá avances en esa dirección, y cada paso puede generar nuevos tipos de valor empresarial. 

La IAG no debe limitarse a imitar la inteligencia humana. Más bien, debe dar lugar a nuevos tipos de valor. Tampoco debería convertirse en una superinteligencia de entidad única, ya que la tecnología siempre debe estar al servicio de las personas. Si llega a desarrollarse, creemos que la mejor forma de lograrla sería conectando numerosos agentes de IA débil para crear una inteligencia artificial sinérgica.

Obtén más información sobre cómo Gartner puede ayudarte

Completa el formulario para conectar con Gartner y descubrir cómo analizamos las tecnologías emergentes, como la IA, y ofrecemos herramientas para seleccionarlas, comprarlas y ponerlas en práctica.

Al hacer clic en el botón "Continuar", aceptas los Términos de uso y la Política de privacidad de Gartner.

¿En qué nivel de madurez se encuentra la IA agéntica y cuál es la hoja de ruta para su adopción?

Por Danielle Casey

Actualmente, solo el 6 % de los equipos de infraestructura y operaciones (I&O) han alcanzado el nivel más alto de madurez necesario para adoptar con éxito la IA agéntica. En la mayoría de las organizaciones, la IA agéntica se limita a implementaciones aisladas que ofrecen ciertos beneficios, pero no generan un impacto transformador. 

La hoja de ruta para la adopción de la IA agéntica requiere un enfoque estructurado y diversificado:

  • Evaluación y preparación: comienza por evaluar tu estado actual e identifica las brechas en tu infraestructura y modelos operativos que puedan dificultar la adopción de la IA agéntica. Esto incluye analizar la calidad de los datos, la gobernanza y las capacidades tecnológicas existentes.

  • Visión estratégica: define una visión para la adopción de la IA agéntica que identifique las limitaciones actuales en la toma de decisiones y plantee cómo esta tecnología podría ayudar a superarlas. Esta visión debe estar alineada con el modelo operativo global de TI de la organización.

  • Inversión en infraestructura: dirige las inversiones futuras a asegurar que la nueva infraestructura sea compatible con la IA agéntica. Esto implica adoptar infraestructuras y plataformas inteligentes que puedan respaldar las capacidades autónomas de los agentes de IA.

  • Gobernanza y gestión: establece un marco de gobernanza que incluya un centro de excelencia (CoE), compuesto por profesionales de TI, tecnólogos y líderes empresariales, para supervisar la implementación y escalabilidad de las iniciativas de IA agéntica

  • Mejora continua: evalúa periódicamente el nivel de madurez de la IA y ajusta las estrategias conforme avance la tecnología y cambien las necesidades del mercado. Esto incluye actualizar anualmente la evaluación del grado de madurez de la IA.

  • Implementación e iteración: una vez asegurada la financiación y definido un plan claro de implementación, ejecuta las estrategias de forma iterativa.

¿Qué inversión en infraestructura de GPU debería planificar para escalar la adopción de la IA en los próximos tres años?

Considera una estrategia de inversión integral basada en cinco elementos clave:

1. Planificación de infraestructuras: invierte en infraestructura como servicio (IaaS) optimizada para la IA, puesto que se espera que su demanda crezca considerablemente en los próximos tres años. Esta infraestructura debe estar diseñada para soportar cargas de trabajo de IA de forma eficiente, aprovechando la escalabilidad en la nube y los modelos de pago por uso. Implementa arquitecturas de supercomputación para IA que integren aceleradores de IA, almacenamiento optimizado y redes de alta velocidad. Esta arquitectura es crucial para gestionar el paralelismo a gran escala necesario para entrenar los modelos de IA generativa.

2. Adquisición y gestión de GPU: aprovecha funciones como la programación dinámica de cargas de trabajo y el uso compartido de GPU para sacar el máximo provecho de estos recursos. Esto es especialmente importante dado el limitado suministro actual de GPU y la creciente demanda de cargas de trabajo de inferencia. Reduce también los costes al migrar de GPU tradicionales a procesadores de IA optimizados para la nube, invirtiendo en estándares abiertos y ecosistemas.

3. Optimización de redes y almacenamiento: desarrolla e implementa redes específicas para las cargas de trabajo de IA, garantizando baja latencia y transmisión sin pérdidas. Esto implica usar tecnologías como InfiniBand o Ethernet de alta velocidad para conectar las GPU de forma eficaz. Implementa soluciones de almacenamiento que ofrezcan alto rendimiento y baja latencia, como sistemas de archivos paralelos y almacenamiento de objetos. Estos sistemas deben ser capaces de manejar los grandes volúmenes de datos necesarios para el entrenamiento y la inferencia de la IA.

4. Gestión de costes y eficiencia: incorpora herramientas de monitorización para controlar el uso de GPU y el consumo de energía. Esto te permitirá gestionar mejor los costes operativos de TI y mejorar la eficiencia. Como las cargas de trabajo de IA pueden aumentar considerablemente el consumo energético, contempla invertir en tecnologías de refrigeración avanzadas, como la refrigeración por inmersión, para poder gestionar la alta densidad de potencia que requiere la infraestructura informática de la IA.

5. Formación y desarrollo de competencias: desarrolla programas de formación para los equipos de infraestructura y operaciones (I&O) que mejoren sus habilidades en el manejo de infraestructuras de IA, incluyendo ingeniería de instrucciones y diseño de centros de datos de IA.

¿Qué aspectos clave se deben considerar al crear un centro de excelencia (CoE) en IA?

Establecer un centro de excelencia (CoE) en IA es una iniciativa estratégica que puede potenciar significativamente la capacidad de una organización para aprovechar de forma eficaz las tecnologías de IA. Los pasos y consideraciones importantes a tener en cuenta son:

  • Logra el apoyo de la alta dirección: busca un patrocinador ejecutivo que se involucre activamente en los proyectos del CoE, ayude a sortear los retos de la organización y comunique el valor del CoE a los demás líderes de la empresa.

  • Define los objetivos y el alcance del CoE: crea una carta detallada en la que se incluyan los objetivos, los principios, las funciones, los indicadores y los procedimientos de comunicación, y asegúrate de alinear el CoE con las prioridades estratégicas de la organización. Establece indicadores de éxito específicos, medibles y relevantes para la alta dirección.

  • Reúne un equipo diverso: asegúrate de fomentar una mentalidad generalista, no centrada únicamente en la tecnología. Incluye a personas con habilidades técnicas e interpersonales, como arquitectos de IA, científicos de datos y especialistas en gestión del cambio, para gestionar de forma eficaz las actividades designadas. Considera la posibilidad de incorporar a consultores en los primeros proyectos para cubrir las brechas de habilidades y facilitar la transferencia de conocimientos.

  • Selecciona indicadores relevantes: los indicadores deben abarcar las entradas, los procesos y las salidas, proporcionar una evaluación completa de la eficacia, reflejar las necesidades de la organización y vincular los indicadores tecnológicos con los resultados empresariales.

  • Determina la estructura organizativa adecuada: elige un modelo que pueda evolucionar a medida que la empresa madure. Entre los modelos más comunes se encuentran las estructuras centralizadas, descentralizadas y federadas.

  • Fomenta una cultura de mejora continua: implementa programas de formación y desarrollo para potenciar las habilidades de los profesionales del CoE. Crea programas de reconocimiento para celebrar los logros y fomentar la participación.

  • Aprovecha los recursos y herramientas existentes: realiza una evaluación exhaustiva del entorno de TI actual para identificar herramientas que puedan aprovecharse para las iniciativas de IA. Establece colaboraciones con proveedores tecnológicos para potenciar las capacidades del CoE.

  • Crea plataformas de conocimiento (innovación como servicio): proporciona manuales, guías técnicas, conocimientos básicos y casos de uso clave que sean accesibles para toda la organización.

  • Supervisa y evalúa la eficacia: realiza encuestas para obtener información sobre el impacto del CoE y las posibles áreas de mejora. Prioriza aquellas medidas que vayan más allá de la productividad y eficiencia, o que sean consecuencia de su incremento. Comparte los indicadores e historias de éxito con los altos directivos para garantizar el apoyo continuo al CoE.

¿Es seguro confiar en robots con IA para ejecutar funciones esenciales?

Existe mucha desconfianza en torno a la IA debido al efecto de “caja negra”: vemos los resultados, pero no comprendemos cómo se han obtenido. La falta de mecanismos de gestión de la confianza, el riesgo y la seguridad de la IA (AI TRiSM) se agrava por la falta de transparencia respecto a los datos subyacentes que los modelos de IA emplean para producir sus resultados. Los robots impulsados por IA necesitan que los humanos asuman la responsabilidad final de que su funcionamiento sea seguro, protegido, equitativo y beneficioso para la sociedad.

Ya sea para evaluar a robots impulsados por IA u otros casos de uso de la IA, Gartner recomienda:

  • Colaborar con las partes interesadas pertinentes, como responsables de arquitectura empresarial, TI, RR. HH., área legal y análisis de datos, para aprovechar el potencial de las plataformas mejoradas de gobernanza ética de la IA. Aplica los principios éticos fundamentales e intégralos en la estrategia global de IA

  • Abordar los dilemas éticos en el uso y desarrollo de sistemas de IA, mediante la incorporación de un experto en ética al equipo central de IA o la creación de una junta asesora de ética digital que valide los resultados ambiguos y mejore su precisión según el contexto.

  • Supervisar continuamente el comportamiento de los sistemas de IA mediante un programa sólido de pruebas alineado con los principios éticos fundamentales, para evitar consecuencias negativas como sanciones legales.

¿Cómo demuestran las caídas en la nube la necesidad de tecnologías emergentes que mejoren la resiliencia?

Por: Nathan Hill

La caída de Google Cloud en junio de 2025 demuestra que incluso los proveedores de nube más avanzados pueden verse afectados por interrupciones. El uso de un proveedor de nube no elimina la necesidad de realizar una planificación exhaustiva de continuidad del negocio y recuperación, ni de evaluar la resiliencia y la arquitectura del proveedor elegido. Las tecnologías emergentes, como las redes multicloud óptimas, la observabilidad nativa en la nube y la remediación autónoma, están ayudando a las organizaciones a reducir su dependencia de un solo proveedor y a responder más rápido ante incidentes. A medida que se profundiza en el uso de la nube, los responsables de I&O y los CIO deben dar prioridad a la resistencia como resultado estratégico, evaluando tecnologías que refuercen el tiempo de actividad, la visibilidad y el aislamiento de fallos en entornos complejos de nube híbrida.

Descubre más en nuestro webinar: Orientación para los CIO y responsables de I&O: cómo elegir entre una estrategia de nube única y multicloud

Abril de 2025

¿Qué es Manus AI? ¿Puede utilizarse para aplicaciones empresariales?

Por Daniel Sun 

Manus AI, desarrollado por la startup china Monica.im y lanzado el 6 de marzo de 2025, es un asistente basado en un modelo de lenguaje de gran tamaño (LLM) de uso general, con potencial para evolucionar hacia un agente de inteligencia artificial generalista. Representa un avance en la tecnología de IA, centrado en mejorar la colaboración humano-máquina y las automatizaciones de tareas de las aplicaciones de IA. 

Aspectos clave que los CIO deben conocer sobre Manus AI

  • Capacidades: Manus AI ofrece una gran variedad de funcionalidades, que incluyen automatización de tareas, procesamiento y análisis de datos, toma de decisiones y generación de contenidos. También es capaz de aprender de sus interacciones y adaptar su comportamiento en función de ello: por ejemplo, puede sugerir tareas de forma autónoma sin necesidad de una consulta o ajustar los planes para un nuevo contexto.

  • Tecnología: Manus AI aprovecha los grandes modelos de lenguaje ya existentes, como Claude de Anthropic y Qwen de Alibaba, y utiliza una arquitectura multiagente. Esto le permite utilizar diversas herramientas y software de código abierto, mejorando sus capacidades en la ejecución de tareas y la interacción con las API.

  • Interfaz de usuario: un chatbot con una experiencia de usuario simplificada facilita que los usuarios interactúen con la IA al tiempo que gestiona tareas en segundo plano.

  • Aplicaciones: los posibles casos de uso de Manus AI para empresas incluyen la simplificación de procesos complejos, la mejora de la interacción con el cliente a través de respuestas automatizadas y la asistencia en tareas como el análisis financiero.

  • Retos: la estabilidad operativa puede suponer un problema, ya que Manus AI depende de sistemas y API de terceros, lo cual puede plantear riesgos en entornos empresariales. También existen preocupaciones éticas y normativas. Por ejemplo, cuestiones de responsabilidad y rendición de cuentas cuando la IA toma decisiones críticas. Además, sigue habiendo incertidumbre sobre sus fuentes de datos y mecanismos operativos. Su precio no está claramente definido.

¿Qué son los modelos de lenguaje pequeños? ¿Cómo se comparan los SLM con los LLM?

Por George Brocklehurst 

Los modelos de lenguaje pequeños (SLM) son una categoría de modelos de lenguaje que se dimensionan para ser alternativas más eficientes y rentables que los grandes modelos de lenguaje (LLM). 

Los SLM tienen aproximadamente 10 mil millones de parámetros. Su verdadero potencial se aprecia cuando se adaptan a tareas y dominios específicos. Su menor tamaño hace que sean más fáciles de afinar e implementar que sus contrapartes LLM.

Ventajas clave de los SLM

  • Rentabilidad: los SLM tienen un coste relativamente bajo para ajustarse e implementarse, por lo que son adecuados para organizaciones con limitaciones presupuestarias.

  • Eficiencia: requieren menos recursos computacionales, lo que permite su implementación en dispositivos locales o en entornos de nube privada, mejorando la privacidad y seguridad de los datos.

  • Especialización en tareas: cuando están debidamente alineados con un caso de uso específico y ajustados para esa implementación, pueden superar a modelos más grandes. Esto los hace especialmente útiles en situaciones donde no se requieren capacidades lingüísticas avanzadas.

Casos de uso para modelos de lenguaje pequeños

  • Los SLM son ideales para aplicaciones que implican altos volúmenes de interacción con el usuario, requisitos de baja latencia y escenarios con datos sensibles. Pueden utilizarse con eficacia en chatbots de documentos, aplicaciones de atención al cliente y modelos de lenguaje de organizaciones.

  • También pueden integrarse en sistemas multimodelo, en los cuales varios modelos especializados en tareas trabajan juntos para abordar retos complejos de la IA.

SLM frente a LLM

Si bien las capacidades de razonamiento y generación de lenguaje genérico de los SLM no se equiparan a las de los LLM, destacan en aplicaciones específicas donde su menor tamaño y menor consumo de recursos proporcionan una ventaja significativa. 

Los SLM representan un enfoque práctico y eficiente para implementar soluciones de IA generativa, sobre todo para organizaciones que requieren capacidades especializadas sin el exceso de costes y complejidades de los modelos más grandes. Por esta razón, se espera que aumente la adopción de SLM. Según las previsiones de Gartner, para 2026, se procesarán más consultas y solicitudes para la IA generativa en los dispositivos locales que en la nube, lo que hará posible que surjan asistentes inteligentes y otras aplicaciones proactivas.

¿Cómo está cambiando la IA el panorama de los dispositivos perimetrales?

Por Christian Stephan 

Los dispositivos perimetrales modernos son cada vez más capaces de ejecutar algoritmos complejos. Al mismo tiempo, la IA se está adaptando y remodelando para ajustarse a las capacidades de estos dispositivos, permitiendo aplicaciones más inteligentes, eficientes y autónomas. A medida que los modelos de IA progresen, veremos mejoras significativas en la eficiencia de la inferencia en dispositivos con capacidad computacional limitada, y podemos esperar una mayor integración que impulse la innovación en varios sectores.

Principales repercusiones de la IA en los dispositivos perimetrales

  • Procesamiento en tiempo real: la IA permite que los dispositivos perimetrales realicen localmente el procesamiento y análisis de datos en tiempo real, reduciendo la latencia, el uso del ancho de banda y eliminando la dependencia de la infraestructura de red. Esto es crucial para aplicaciones que requieren una toma de decisiones inmediata y procesos robustos, como los vehículos autónomos y la automatización industrial.

  • Privacidad y seguridad: al procesar los datos localmente, la IA ayuda a abordar preocupaciones de privacidad, ya que la información confidencial no necesita transmitirse a la nube, sino que se procesa durante la ejecución sin almacenar datos en bruto. Esto es de especial importancia para el procesamiento de información personal, como la biometría, o en sectores muy regulados donde la soberanía de los datos es motivo de preocupación.

  • Integración con el IoT: los dispositivos perimetrales están cada vez más integrados en las redes del internet de las cosas (IoT), lo que permite operaciones más inteligentes y autónomas. La integración de la IA en el borde permite que los dispositivos aprendan de su entorno y mejoren su rendimiento con el tiempo, lo que da lugar a operaciones más eficientes y mejores experiencias para los usuarios.

  • Uso de técnicas avanzadas: se emplean técnicas como TinyML, aprendizaje por transferencia (transfer learning) y aprendizaje federado (federated learning) para optimizar el entrenamiento de modelos en dispositivos perimetrales. Estos avances permiten que los dispositivos perimetrales realicen tareas de machine learning sin necesidad de contar con grandes recursos computacionales.

  • Rentabilidad: al reducir la necesidad de transmitir los datos a sistemas centralizados, la IA en el borde puede disminuir los costes operativos a largo plazo, aunque inicialmente incremente los gastos de capital. Esto resulta especialmente útil para las aplicaciones que procesan grandes volúmenes de datos, pero solo necesitan transferir un resumen federado o agregado, ya que se minimizan los requisitos de ancho de banda y los costes asociados, en comparación con procesarlo todo en la nube.

  • Escalabilidad y flexibilidad: la IA aumenta la escalabilidad de las soluciones en el borde al permitir el procesamiento distribuido y la toma de decisiones. Se pueden añadir nuevos nodos en el borde de la red sin aumentar de forma significativa la necesidad de escalar las infraestructuras centrales de TI. Esta flexibilidad es fundamental para adaptarse a diversos casos de uso en diferentes sectores, desde ciudades inteligentes hasta la atención sanitaria.

  • Eficiencia energética: el procesamiento de datos directamente en el dispositivo perimetral reduce significativamente el consumo energético general de toda la infraestructura de red, al minimizar el tráfico innecesario o eliminar pasos adicionales de manipulación, como los algoritmos de protección para datos sensibles sin procesar.

  • Infraestructura flexible: los dispositivos perimetrales con IA pueden formar parte de estructuras compuestas de mayor escala para ofrecer funcionalidades avanzadas, mediante integraciones bidireccionales entre la nube y el borde de la red. Esto permite la sincronización con orquestaciones de mayor escala mientras se mantiene la ejecución local.

¿En qué se diferencian los modelos de IA específicos de dominio de los LLM genéricos para empresas?

Por Tsuneo Fujiwara 

Los modelos de IA específicos de dominio (DSAM) y los grandes modelos de lenguaje (LLM) genéricos tienen diferentes propósitos y características que los hacen adecuados para diversas aplicaciones empresariales. Mientras que los LLM están diseñados para abordar todo tipo de tareas y problemas independientemente del dominio, los DSAM están pensados para resolver problemas en un sector específico, departamento empresarial o tipo de problema (como la optimización de recursos). Así pues, la metodología de entrenamiento utilizada y los beneficios que aporta cada uno serán distintos.

Principales diferencias entre los modelos de IA específicos de dominio y los LLM genéricos

Propósito y especialización

  • DSAM: adaptados a sectores, departamentos o tareas específicos, y optimizados para comprender y generar contenido relevante para dominios concretos como la salud, las finanzas o el área legal, lo cual proporciona mayor precisión, fiabilidad y comprensión contextual.

  • LLM genéricos: diseñados para manejar una amplia variedad de tareas en distintos dominios, destacan por su capacidad de comprensión y generación del lenguaje de manera general.

Datos utilizados para su entrenamiento

  • DSAM: a menudo se ajustan (o se entrenan específicamente) con conjuntos de datos propios de su dominio objetivo, lo que les ayuda a aprender los matices y la terminología relevantes para ese campo. Esto reduce la necesidad de una exhaustiva ingeniería de instrucciones y mejora el rendimiento del modelo en tareas específicas.

  • LLM genéricos: entrenados con grandes volúmenes de texto sin etiquetar procedentes de diversas fuentes, lo que les otorga capacidades generales amplias.

Coste y eficiencia de los recursos

  • DSAM: tienden a ser más rentables para las empresas, ya que requieren menos potencia de cálculo y menos datos para su ajuste que los LLM genéricos, lo que facilita su implementación y mantenimiento, especialmente en entornos con recursos limitados.

  • LLM genéricos: pueden ser necesarios muchos recursos para su implementación y ajuste, requiriendo más parámetros, energía y un mayor coste para lograr el mismo nivel de rendimiento que los DSAM. 

Casos de uso

  • DSAM: ideales para aplicaciones que requieren un conocimiento profundo de un campo específico, como el diagnóstico médico, el análisis de documentos legales o la previsión financiera. Pueden proporcionar resultados más pertinentes y precisos para estas tareas especializadas.

  • LLM genéricos: adecuados para una amplia variedad de tareas generales, como la creación de contenido, la elaboración de resúmenes y la recuperación de información para agentes conversacionales.

¿Qué es el protocolo de contexto del modelo (MCP) y cómo habilita a los agentes de IA?

Por Gary Olliffe 

A medida que las empresas buscan implementar agentes de IA que asuman tareas más complejas en los distintos flujos de trabajo y procesos, estos agentes necesitarán acceder a una variedad de datos, información y recursos funcionales. El protocolo de contexto del modelo (MCP) es una interfaz estándar abierta que define una forma coherente y flexible de conectar aplicaciones y agentes de IA a estos recursos. 

El MCP define cómo las aplicaciones de IA acceden e interactúan con otros recursos, como almacenes de información, API y otras aplicaciones, de manera independiente del modelo y la aplicación. A medida que los agentes de IA evolucionan de asistentes aislados a sistemas colaborativos, se confía cada vez más en ellos para automatizar operaciones, aumentar la productividad y respaldar procesos empresariales completos que requieren una integración flexible.

Sin el MCP, cada marco de aplicación o plataforma de IA definirá su propio enfoque único para conectar recursos externos a la IA. Con el MCP, las organizaciones podrán compartir recursos entre una variedad de casos de uso de IA de manera consistente y manejable, reduciendo la duplicación y permitiendo que desarrolladores y usuarios conecten sus aplicaciones de IA a los recursos más adecuados para cada tarea o caso de uso. 

En el desarrollo de software, por ejemplo, los agentes respaldarán tareas como la modernización de código, la automatización de pruebas y la resolución de problemas, garantizando que cada agente cuente con las herramientas y el contexto adecuados en cada etapa, lo cual es esencial para la eficiencia y la precisión. El MCP proporciona un mecanismo estándar para integrar estas capacidades en aplicaciones de IA ya existentes o desarrolladas a medida.

A medida que los agentes de IA se vuelvan más autónomos e interdependientes, los ejecutivos de TI deberán evaluar si sus arquitecturas de IA están diseñadas para admitir una integración flexible con un contexto compartido. El MCP está en las fases iniciales de su ciclo de vida y deberá madurar rápidamente para satisfacer las necesidades de las empresas, pero el rápido crecimiento de su popularidad pone de manifiesto la demanda de una interfaz estándar para que aplicaciones y agentes de IA basados en LLM puedan conectarse al contexto externo.

Mejora el rendimiento en tus principales prioridades estratégicas.

TOP