Introducción
La inteligencia artificial (IA) está por todas partes. Es el motor de asistentes de voz, vehículos autónomos y robots que realizan tareas tan variadas como limpiar oficinas o cosechar cultivos. Sus aplicaciones en el ámbito de los seguros de vida y las rentas vitalicias son igualmente diversas, y van desde la suscripción de pólizas y la evaluación de riesgos hasta la predicción de tasas de mortalidad. Si nos atenemos a los seguros de vida y las rentas vitalicias, puede parecer no que hay límites para la IA… pero igual que sucede con la mayoría de tecnologías, tiene sus desventajas, particularmente ligadas a los sesgos inherentes presentes en los datos con los que se entrenan los modelos de IA. Si no se vigilan y controlan, esos sesgos pueden conducir a resultados injustos y discriminatorios, lo que a su vez pondría en desventaja a ciertas personas o clases.
Es preciso comprender los sesgos de la IA
Por sí solos, los modelos de IA carecen de sesgos inherentes, pero si un modelo de IA concreto se entrena con datos que sí incorporen esos sesgos, es probable que los perpetúe y amplifique en su proceso de toma de decisiones. Pueden manifestarse de varias maneras, como por ejemplo:
¿Cómo neutralizar los sesgos en la IA?
Para rectificar los sesgos de la IA, primero hay que detectarlos. Y para prevenir y eliminar sesgos, los modelos de IA deben entrenarse con datos correctos y apropiados. Una manera consiste en asegurarse de trabajar con un conjunto de datos de entrenamiento equilibrado o, al menos, reducir los desequilibrios dentro del conjunto de datos disponible. Si se incluyen datos de diferentes grupos demográficos y regiones, el modelo de IA puede hacer predicciones más justas. Asimismo, las compañías aseguradoras deberían realizar auditorías y pruebas periódicas para evaluar los sesgos y la equidad de sus algoritmos de IA. Esto implica monitorizar los resultados y revisar las decisiones para detectar patrones discriminatorios y actuar al respecto. Además, las aseguradoras deberían otorgar prioridad a utilizar modelos de IA transparentes y explicables, que permitan obtener información que justifique cómo se toman las decisiones. Así se posibilita un mejor escrutinio de los resultados del algoritmo y se genera más confianza entre la clientela. La IA puede agilizar significativamente ciertos procesos, cierto; pero el medio ideal para preservar y garantizar la equidad, así como para corregir posibles sesgos que la IA podría no reconocer, es la supervisión humana: vigilando, identificando y rectificando errores y resultados discriminatorios.
La Asociación Nacional de Comisionados de Seguros (National Association of Insurance Commissioners, NAIC) cuenta con grupos de trabajo y comités que abordan periódicamente el tema de la IA desde distintas ópticas. Destaca el Grupo de Trabajo de Suscripción Acelerada (Accelerated Underwriting Working Group), creado por el Comité de Rentas vitalicias y Seguros de vida (Life Insurance and Annuities Committee), así como el Grupo de Trabajo de Macrodatos e Inteligencia artificial (Big Data and Artificial Intelligence Working Group), que depende del Comité de Innovación, Ciberseguridad y Tecnología (Cybersecurity and Technology Committee).
Desde Sapiens, seguimos trabajando para seguir las evoluciones en la aplicación de la IA que ocurran en los seguros de vida y las rentas vitalicias.
La última palabra
En el ecosistema de los seguros de vida y las rentas vitalicias, los sesgos potenciales de la IA continúan representando un gran reto. Los modelos de negocio en constante evolución y sus datos subyacentes irán cambiando sin cesar, así que será imposible crear un conjunto de datos de entrenamiento perfecto. La única vía para que las aseguradoras diseñen y ofrezcan productos accesibles, asequibles y equitativos para todas las personas implica obligatoriamente el desarrollo responsable de la IA.
Infórmate a fondo y descubre cómo impulsa Sapiens la transformación digital en el campo de los seguros de vida y las rentas vitalicias.