Reglamento de Inteligencia Artificial en el sector asegurador

La Unión Europea está trabajando en un reglamento de Inteligencia Artificial y Unespa ya ha publicado una guía de uso ético en el sector asegurador.

El sector asegurador debe prepararse para afrontar nuevas normativas y exigencias

La Inteligencia Artificial está ganando terreno en el sector asegurador, tanto en el proceso de suscripción de seguros como en la tramitación de los siniestros. Sin embargo, a nivel social también existe un interés creciente por usar de manera justa y ética esta tecnología, de manera que las aseguradoras deben prepararse para explicar las aplicaciones de la Inteligencia Artificial en su estrategia y operaciones, sobre todo a medida que se aprueben nuevas leyes y los asegurados exigen más transparencia en los procedimientos, las primas y las pólizas.

Se avecina un nuevo reglamento de Inteligencia Artificial en la Unión Europea

Los beneficios que puede aportar la Inteligencia Artificial (IA) en diferentes sectores de la economía y la sociedad han convertido esta tecnología en un área de importancia estratégica para la Unión Europea. En la actualidad, las inversiones en IA en Europa oscilan entre los 2.400 y 3.200 millones de euros, pero la Comisión Europea tiene planificado destinar 20.000 millones anuales para su desarrollo.

Obviamente, una mayor penetración de la IA también entraña la necesidad de regular su uso. Por ese motivo, la Unión Europea ya está preparando una batería de medidas destinadas a abordar los retos y oportunidades que representa la Inteligencia Artificial. También está trabajando en un nuevo reglamento de Inteligencia Artificial que potencie la innovación, garantice la seguridad, proteja los derechos humanos, respete los estándares éticos y genere confianza en la población.

El reglamento de Inteligencia Artificial pondrá en el centro al ciudadano y contemplará el respeto a la intervención y supervisión humana. Basado en los principios de transparencia y responsabilidad, planteará la necesidad de entrenar a la Inteligencia Artificial para evitar sesgos y prejuicios de género, culturales, sociales o de cualquier otra índole que puedan generar situaciones de discriminación.

Esta normativa, que pretende proteger a los ciudadanos, proporcionar mayor seguridad jurídica a las empresas e impulsar la innovación, también establecerá limitaciones para minimizar los riesgos asociados a esta tecnología, como prohibir el uso de aplicaciones de Inteligencia Artificial destinadas a la identificación biométrica en espacios públicos o aplicaciones de puntuación social.

De hecho, el borrador del reglamento de Inteligencia Artificial de la Unión Europea clasifica algunos sistemas de Inteligencia Artificial como de “alto riesgo” para la “salud, seguridad o derechos fundamentales de las personas”, dentro de los cuales se incluyen aquellos destinados a fijar las primas de seguros, realizar suscripciones y evaluar siniestros.

Por tanto, las aplicaciones de Inteligencia Artificial del sector asegurador tendrán que cumplir “una serie de requisitos horizontales obligatorios que garanticen su fiabilidad” y tendrán que “someterse a procedimientos de evaluación de la conformidad antes de poder introducirse en el mercado de la Unión”.

Según el futuro reglamento de Inteligencia Artificial, las aseguradoras también tendrían que “proteger los derechos fundamentales durante todo el ciclo de vida de los sistemas de Inteligencia Artificial, aunque en el caso de los robots conversacionales solo se aplicarán obligaciones mínimas en materia de transparencia.

Los principios éticos que deben regir el uso de IA en el sector asegurador

Las aseguradoras y corredurías todavía tienen un buen margen de tiempo antes de que se apruebe y entre en vigor el reglamento de Inteligencia Artificial, pero es conveniente que vayan aplicando políticas y medidas éticas internas destinadas a regular el uso de esta tecnología. De hecho, Unespa ya ha compartido una guía de principios éticos para el uso de la Inteligencia Artificial en el sector asegurador:

Trato justo.

Las aplicaciones de Inteligencia Artificial no pueden dar pie a que una persona o grupo reciba un trato injusto, por lo que su uso debe ceñirse al Reglamento General Europeo de Protección de Datos (RGPD) y las aseguradoras deben aplicar procesos de revisión que les permitan detectar y minimizar sesgos no conscientes que pueda presentar dicha tecnología.

Proporcionalidad.

Las entidades de seguros deben realizar evaluaciones de impacto para determinar las medidas de gobernanza necesarias para usar la Inteligencia Artificial de manera ética y fiable, las cuales deben ser proporcionales al impacto de la tecnología. También se recomienda analizar otras soluciones que ofrezcan la misma funcionalidad y tengan un margen de rendimiento aceptable, pero representan un riesgo menor.

Responsabilidad proactiva.

Las aseguradoras deben incorporar en su sistema de gestión de riesgos el control de IA estableciendo procedimientos y mecanismos que garanticen un uso responsable. También tendrán que realizar auditorías de las aplicaciones de Inteligencia Artificial, acreditar las decisiones tomadas y su trazabilidad, así como comprobar periódicamente que la solución utilizada sigue cumpliendo con los principios de diseño originales.

Seguridad.

Las aplicaciones de Inteligencia Artificial que utilicen las aseguradoras tienen que mantener a lo largo de toda su vida útil un nivel de robustez adecuado que garantice tanto un uso seguro como la protección de los datos que gestiona. Por consiguiente, es necesario implementar rutinas de revisión y comprobación de vulnerabilidades.

Transparencia.

Las compañías de seguros deben informar sobre el uso de la Inteligencia Artificial en su página web, canales habituales de información y políticas escritas. Tienen que cumplir el RGPD e informar de manera más detallada a todas aquellas personas que lo soliciten sobre el papel e impacto de IA en el proceso de toma de decisiones.

Formación.

El personal de las aseguradoras encargado de gestionar las aplicaciones de Inteligencia Artificial debe tener los conocimientos adecuados para poder ejercer sus funciones y responsabilidades. Además, será necesario informar y formar al resto del personal sobre el uso y las limitaciones de los sistemas de IA.

Evaluación y revisión.

Las entidades de seguros tienen que revisar la fiabilidad de sus soluciones de Inteligencia Artificial cada cierto tiempo usando la herramienta de autoevaluación creada con tal fin por el Grupo de expertos de la Comisión Europea.