Aborda la confianza, el riesgo y la seguridad de los modelos de inteligencia artificial

Por Lori Perri | 4 minutos de lectura | 5 de septiembre de 2023

Una visión global

Seis razones por las que necesitas integrar la AI TRiSM en los modelos de IA

La IA generativa ha despertado un gran interés en las empresas por probar la inteligencia artificial, pero estas no suelen tener en cuenta los riesgos hasta que los modelos o aplicaciones de IA ya se encuentran en fase de producción o uso. Un programa completo de gestión de la confianza, el riesgo y la seguridad (Trust, Risk, Security Management, TRiSM) de la IA te ayuda a integrar de antemano la necesaria gobernanza y a garantizar de forma proactiva que los sistemas de IA sean conformes, justos, fiables y protejan la privacidad de los datos.

Si tienes dudas sobre la necesidad de la AI TRiSM, considera estos seis factores de riesgo que, en muchos casos, son fruto del desconocimiento de los usuarios acerca de lo que realmente sucede dentro de los modelos de IA.

1. La mayoría de la gente no es capaz de explicar qué es y qué hace la IA a los responsables, usuarios y consumidores de los modelos de IA

  • No te limites a explicar los términos de la IA; sé capaz de argumentar:

    • Los detalles o las razones que aclaran cómo funciona un modelo, para un público específico.

    • Los puntos fuertes y débiles del modelo.

    • Su comportamiento probable.

    • Los posibles sesgos.

  • Haz visibles los conjuntos de datos utilizados para el entrenamiento y los métodos utilizados para la selección de esos datos, si dispones de dicha información. Esto puede ayudar a descubrir posibles fuentes de sesgo.

2. Cualquiera puede acceder a ChatGPT y otras herramientas de IA generativa

  • La IA generativa tiene el potencial de transformar la manera en que las empresas compiten y trabajan, pero también introduce nuevos riesgos que no se pueden abordar con controles convencionales.

  • En particular, los riesgos asociados con las aplicaciones de IA generativa basadas en la nube son significativos y evolucionan rápidamente.

3. Las herramientas de IA de terceros plantean riesgos de confidencialidad de los datos

  • A medida que tu organización integra modelos y herramientas de IA de terceros, también absorbes los grandes conjuntos de datos utilizados para entrenar esos modelos de IA.

  • Tus usuarios podrían estar accediendo a datos confidenciales contenidos en los modelos de IA de otros proveedores, lo que podría tener consecuencias de tipo reglamentario, comercial y reputacional para tu organización.

En 2026, los modelos de IA de las organizaciones que instrumentalicen la transparencia, la confianza y la seguridad de la IA lograrán una mejora del 50 % en términos de adopción, objetivos de la empresa y aceptación del usuario.

Fuente: Gartner

4. Los modelos y aplicaciones de IA requieren una supervisión constante

  • Los procesos especializados de gestión del riesgo deben integrarse en las operaciones del modelo de IA (ModelOps) para que la IA sea conforme, justa y ética.

  • Dado que no hay muchas herramientas listas para su uso en el mercado, es probable que necesites desarrollar soluciones personalizadas para tu canal de IA.

  • Los controles deben aplicarse continuamente, por ejemplo, durante el desarrollo de los modelos y aplicaciones, en las fases de prueba e implementación, y en el funcionamiento de las operaciones.

5. La detección y la detención de los ataques adversarios contra la IA requieren nuevos métodos

  • Los ataques maliciosos contra la IA (ya sea propia o integrada en modelos de terceros) conducen a varios tipos de daños y pérdidas para la organización, por ejemplo, financieros, de reputación o relacionados con la propiedad intelectual, información personal o datos de propiedad. 

  • Añade controles y prácticas especializados para probar, validar y mejorar la robustez de los flujos de trabajo de IA, más allá de los utilizados para otros tipos de aplicaciones.

6. Pronto habrá regulaciones que definirán los controles de cumplimiento

  • La ley de la UE sobre la IA y otros marcos normativos de América del Norte, China y la India ya están estableciendo regulaciones para gestionar los riesgos de las aplicaciones de IA.

  • Prepárate para cumplirlas, más allá de lo que ya requieren otras normas, como las relativas a la protección de la privacidad.

La razón de ser del estudio

Desde el escritorio de Avivah Litan, distinguido analista VP de Gartner

“Las organizaciones que no gestionan de forma sistemática los riesgos de la IA son mucho más propensas a sufrir resultados adversos, como errores e incumplimientos de proyectos. Los resultados inexactos, poco éticos o no deseados de la IA, los errores de proceso y la interferencia de agentes maliciosos pueden conllevar infracciones de seguridad, pérdidas o responsabilidad financiera y de reputación, y daño social. El funcionamiento erróneo de la IA también puede conducir a decisiones comerciales que no sean las óptimas”.

Las 3 cosas que contar a otros profesionales de tu sector

1

Las capacidades de la AI TRiSM son necesarias para garantizar la fiabilidad, la solvencia, la seguridad y la privacidad de los modelos de IA.


2

Estas impulsan mejores resultados relacionados con la adopción de la IA, el logro de los objetivos de la empresa y la garantía de la aceptación del usuario.


3

Considera la AI TRiSM como un conjunto de soluciones para integrar protecciones más eficaces en la IA y establecer la gobernanza de IA.

Comparte este artículo

Avivah Litan es una destacada analista VP de Investigación de Gartner y actualmente, forma parte del equipo de ITL AI que se encarga de la inteligencia artificial y el blockchain. Está especializada en todos los aspectos de la innovación del blockchain, así como en la gestión de la confianza, el riesgo y la seguridad de la inteligencia artificial. Posee un sólido bagaje en diferentes aspectos de la ciberseguridad y el fraude, incluida la integración de la inteligencia artificial en estas áreas. Esta experiencia le resulta útil en su actual cobertura de la seguridad y protección de los modelos, aplicaciones y datos de IA, así como de las aplicaciones de blockchain. Su formación también respalda su investigación sobre la integración de tecnologías avanzadas como blockchain, IoT e IA para resolver casos de uso específicos, como la detección de contenidos o productos falsos. Antes de incorporarse a Gartner, la Sra. Litan trabajó como Directora de Sistemas Financieros en el Banco Mundial. También trabajó como periodista y columnista para el Washington Times. Obtuvo un máster en Ciencias en el M.I.T. y se graduó en un Programa de Desarrollo Directivo en la Harvard Business School.

Mejora el rendimiento en tus principales prioridades estratégicas.