Fico explora la ética en la Inteligencia Artificial actual

Ante la preocupación de las empresas sobre la ética en la Inteligencia Artificial ¿Cómo puedes ayudar a tu cliente a hacer buen uso de estas herramientas?

Aunque las empresas están haciendo fuertes inversiones en Inteligencia Artificial (IA), 65 % de ellas no puede explicar cómo los modelos de IA toman decisiones y realizan predicciones, de acuerdo con el informe de Fico l “Una Inteligencia Artificial Responsable 2021”, que exploró el papel de la ética en la Inteligencia Artificial y si esta se usa al momento de entrenar a los motores.Fico explora la ética en la Inteligencia Artificial actual Fico explora la ética en la Inteligencia Artificial actual

El 59% de las organizaciones ya publicó métricas para el desarrollo y gobierno de modelos ética e Inteligencia Artificial en su interior. Sin embargo, el 73% de los encuestados considera un desafío que la dirección priorice las prácticas de IA y ética responsable, ya que el 67% expresó que la junta directiva de su empresa no tiene conocimiento sobre IA.

Una forma en que Fico te sugiere ayudar a tu cliente a mantener la ética en la Inteligencia Artificial, es monitoreando los modelos como hace el 50% de las corporaciones encuestadas.

También puedes identificar características latentes del modelo para monitorear la ética de Inteligencia Artificial, como hace el 45% de los encuestados, o replicar lo que hace un 43% que se basa en estadísticas para descubrir cambios potenciales en los datos de producción.

Para muchas empresas, la Inteligencia Artificial es un ente clave en la estrategia de negocio, aunque solo para un 20% ya relevante cuidar la ética. Otro 30% dice que este tema será considerado en los siguientes tres o cinco años; 32% entre uno y dos años, y solo para un 15% será prioritario los siguientes 12 meses.

Inteligencia Artificial, seguridad y cumplimiento

Fico explora la ética en la Inteligencia Artificial actual

Todos los modelos de Inteligencia Artificial tienen cierto potencial de uso incorrecto. El estudio señala que los cinco modelos más riesgosos son el Procesamiento de Lenguaje Natural; Reconocimiento de Voz; Datos Sintéticos; Árboles de Decisión y Aprendizaje de Reglas por Asociación.

Para combatir los sesgos en seguridad el 60% de las organizaciones evalúa la imparcialidad de los resultados; 55% aíslan, evalúan al modelo latente y hacen pruebas para identificar sesgos; 50% detectan sesgos en datos no estructurados.

El modelo con menos riesgos hasta ahora es la Red Neuronal Artificial.

Las empresas que invierten en Inteligencia Artificial están conscientes de la importancia de asegurarla ante ataques maliciosos, pues al menos un 30% ha sufrido ataques a su IA en los últimos doce meses.

Para proteger a tu cliente de Inteligencia Artificial puedes construir elementos de aleatoriedad en los modelos de Inteligencia Artificial, por ejemplo, la defensa estocástica, como hizo el 65% de los encuestados; hacer hincapié en el proceso de revisión y en la política de seguridad en el diseño como el 50% d los encuestados; o como hizo el 28% controlado y anulando los datos del mundo real antes de que se usen.

Ahora, con, lo que respecta al cumplimiento, solo el 7% de los encuestados describe sus procesos para cumplimiento regulatorio como muy efectivo, con el 46% diciendo que su planteamiento es muy ineficiente.

El mejor servicio en IA para tu cliente

Fico, la empresa de Inteligencia Artificial tiene una plataforma que le permite a las empresas centrarse en el cliente y emprender el camino hacia la personalización de las interacciones.

Te interesa leer: Las soluciones de FICO ayudarán a combatir el fraude financiero

En lugar de darle a tu cliente un enfoque fragmentado, apóyate de una plataforma que te permita conocer los resultados corporativos.

En tu diseño e implementación recuerda siempre que los datos compartidos, las reglas, los modelos analíticos y de decisión son la verdadera personalización.

>>https://www.fico.com/

Diana Payan

Últimos artículos de Diana Payan