Intelligence Everywhere
The MicroStrategy Blog: Your source for analytics and AI trends, and business intelligence insights.
Confiabilidad y Transparencia: Lista de comprobación para la adopción de IA generativa
La IA generativa (GenAI) está transformando nuestra forma de trabajar y comunicarnos, ofreciendo increíbles oportunidades de productividad e innovación. Sin embargo, la integración de modelos de IA generativa en una organización no está exenta de riesgos. Desde garantizar unos resultados fiables y protegerse contra la desinformación hasta sortear los problemas legales y medioambientales, hay que tener en cuenta importantes salvaguardas.
Forrester Research ha analizado la adopción empresarial de la IA generativa (GenAI) y ha elaborado una serie de recomendaciones en su informe de investigación “Generative AI Prompts Productivity, Imagination, and Innovation In The Enterprise”. Esta lista de comprobación está diseñada para guiarle por los pasos esenciales para la adopción eficaz y responsable de GenAI. Empecemos a sacar el máximo partido de la IA generativa al tiempo que mantenemos su organización segura y eficiente.
Cómo minimizar el riesgo de las herramientas de IA generativa
1. Comience por modernizar los flujos de trabajo internos de bajo riesgo antes de implementar la IA generativa en procesos críticos o comunicaciones externas destinadas al cliente.
Introducir GenAI en flujos de trabajo internos de bajo riesgo permite a las organizaciones tantear el terreno y conocer las limitaciones de la tecnología. Les permite obtener beneficios potenciales sin que las operaciones empresariales críticas se vean afectadas.
Este enfoque ayuda a mitigar riesgos como filtraciones de datos, información errónea o interrupciones operativas que podrían dañar la reputación de la organización o las relaciones con los clientes. Por ejemplo, el uso de GenAI para automatizar tareas administrativas como la clasificación de correos electrónicos o la generación de informes puede proporcionar un entorno controlado para evaluar el rendimiento y, al mismo tiempo, recopilar datos valiosos.
2. Explique a sus empleados las alucinaciones y el carácter no determinista de la generación actual de GenAI. Necesitan entender por qué se producen las alucinaciones. De este modo, no se sorprenderán cuando los modelos produzcan respuestas incorrectas. Tampoco se sentirán desconcertados si la misma pregunta conduce a resultados diferentes.
Es fundamental capacitar a los empleados sobre la posibilidad de que IA generativa produzca resultados inexactos o incoherentes. Si no se comprenden correctamente, estas "alucinaciones" de la IA Gen pueden llevar a confusión o a una toma de decisiones errónea. Por ejemplo, un analista financiero que utilice una herramienta GenAI para realizar predicciones de mercado debe saber que las sugerencias pueden diferir con cada uso, lo que requeriría una validación adicional.
Es una buena práctica comprobar la exactitud de todos los contenidos generados y los resultados de la IA, aunque parezcan plausibles. Esta transparencia garantiza que los empleados utilicen las herramientas con eficacia y con el nivel adecuado de pensamiento crítico.
3. Reconozca que los filtros de contenido inapropiado de GenAI no son perfectos. Hay formas de eludir las salvaguardas de contenido, como "sugerir a la IA que un personaje ficticio de un guión cinematográfico pretende hacer algo nefasto".
A pesar de los avances en seguridad y ética de la IA, los filtros diseñados para bloquear contenidos inapropiados no son infalibles. En ocasiones, la ingeniería de instrucciones o la manipulación "astuta" pueden eludir estas medidas de seguridad y dar lugar a la generación de contenidos dañinos u ofensivos.
Por ejemplo, un chatbot de atención al cliente basado en IA podría sugerir inadvertidamente soluciones inadecuadas al problema de un usuario si se omiten las salvaguardas. Las organizaciones deben implantar una supervisión adicional y medidas de seguridad para minimizar este tipo de incidentes.
Use proveedores de confianza en lugar de "IA de caja negra"
4. Aborde la seguridad y la confianza mediante el uso de proveedores como MicroStrategy que hacen hincapié en la transparencia y la precisión frente a la “IA de caja negra”.
La confianza en los sistemas GenAI es primordial para su integración con éxito en las operaciones empresariales. Los proveedores como MicroStrategy ofrecen soluciones que dan prioridad a la transparencia, proporcionando información de alta calidad sobre cómo los modelos de IA toman decisiones. Este método genera confianza ya que ayuda a los usuarios y a las partes interesadas a comprender y confirmar las acciones de la IA.
Por ejemplo, un proveedor de atención médica que utilice GenAI para el diagnóstico de pacientes necesita tener la seguridad de que las recomendaciones de la IA se basan en datos y métodos fiables, que garanticen la seguridad del paciente y el cumplimiento de las normas médicas.
5. Planifique el uso de bots de IA para integrar la IA generativa en sus aplicaciones existentes y “revise detenidamente las hojas de ruta de sus proveedores para saber cómo manejarán, usarán y compartirán los datos relevantes para la puesta a punto de las aplicaciones de IA generativa“.
La incorporación de GenAI en las aplicaciones existentes a través de bots de IA puede aumentar la funcionalidad y mejorar la experiencia del usuario. Sin embargo, las organizaciones deben revisar cuidadosamente los mapas de ruta de sus proveedores para asegurarse de que los datos de entrenamiento se manejen de forma segura y ética.
Por ejemplo, una empresa minorista que incorpore bots de IA en su tienda en línea debe asegurarse de que los datos de los clientes utilizados para personalizar las experiencias de compra estén protegidos contra usos indebidos o accesos no autorizados.
Inclusión y temas medioambientales
6. Resuelva las cuestiones jurídicas de la inclusión de materiales protegidos por derechos de autor o marcas registradas en los modelos de entrenamiento.
El uso de materiales protegidos por derechos de autor o marcas registradas en el entrenamiento de un sistema de IA que genera texto o imágenes plantea importantes problemas legales. Las organizaciones deben abordar estas cuestiones para evitar posibles demandas o daños a su reputación.
Por ejemplo, una empresa de medios de comunicación que utilice imágenes protegidas por derechos de autor para entrenar a generadores de imágenes de IA, debe asegurarse de que dispone de los permisos y licencias necesarios para hacerlo. Del mismo modo, hay que tener en cuenta que parte del contenido textual del mundo real utilizado para el entrenamiento de un modelo de lenguaje grande (LLM) puede estar sujeto a derechos de autor.
Este enfoque no sólo protege legalmente a la organización, sino que también mantiene las normas éticas en el desarrollo de la IA.
7. Tenga en cuenta los costos medioambientales de los modelos de entrenamiento y reentrenamiento en cuanto a energía y emisiones de carbono. Considere la compra de créditos de carbono cuando sea importante para cumplir los mandatos medioambientales de su organización.
El impacto medioambiental del entrenamiento y reentrenamiento de los modelos GenAI es una preocupación creciente, sobre todo en lo que respecta al consumo de energía y las emisiones de carbono. Las organizaciones deben tener en cuenta estos factores a la hora de elaborar planes de IA. Pueden reducir su huella de carbono comprando créditos de carbono.
Por ejemplo, una empresa tecnológica con un fuerte compromiso con la sostenibilidad debería calcular el impacto del carbono de sus operaciones de IA. Para compensar estas emisiones, podría invertir en proyectos de energías renovables, alineando sus iniciativas de IA con sus objetivos medioambientales. Para obtener más información, descargue una copia del informe de Forrester Research “Generative AI Prompts Productivity, Imagination, and Innovation in the Enterprise”.