FRISS, el proveedor de soluciones integrales de prevención y detección de fraude con tecnología accionada con inteligencia artificial (IA) para aseguradoras de seguros generales en todo el mundo, compartió información sobre la propuesta de Ley de Inteligencia Artificial de la Unión Europea.
Según una investigación realizada por la consultora PWC, la IA podría aportar hasta 15,7 billones de dólares a la economía mundial en 2030. En este contexto de crecimiento, es importante pensar en la regulación de este sector en rápida evolución. En respuesta a una mayor conciencia de los posibles peligros que conlleva esta tecnología, la Unión Europea (UE) ha aprobado una propuesta en un primer esfuerzo internacional por regular la IA.
«El marco legal propuesto, denominado Ley de Inteligencia Artificial, es un paso positivo hacia la limitación de los impactos potencialmente negativos de la IA en las personas y en la sociedad en su conjunto. Dentro de su ámbito de aplicación, se mencionan algunas de las tecnologías más emocionantes y controvertidas de la historia reciente, como la conducción autónoma, el reconocimiento facial y los algoritmos que impulsan el marketing en línea. La ley tiene pretende lograr su objetivo acercándose a la IA de forma similar al reglamento de seguridad de los productos de la UE, que sirve para dar a conocer el proceso de desarrollo y aumentar la transparencia para las personas afectadas», expresan desde el Blog de Friss.
Los cambios que introducirá la ley de Inteligencia Artificial estarán relacionados con la transparencia, la gestión del riesgo y la gobernanza de datos. «Es probable que se aplique a proveedores de IA como FRISS y a sus clientes como “usuarios” de nuestra IA. Al igual que el Registro General de Protección de Datos (RGPD), un marco jurídico para proteger la información personal en la UE, las multas que las autoridades podrán aplicar se clasifican por niveles según la gravedad. Sin embargo, una multa de nivel superior en virtud de la Ley de IA supera la del RGPD, alcanzando los 30 millones de euros (unos 35,5 millones de USD) o un 6% de la facturación mundial anual, la que sea la más alta», analizan desde la compañía de soluciones integrales de prevención y detección de fraude.
Requisitos que deben cumplir los proveedores de sistemas de IA
- Contar con un sistema de gestión de riesgos.
- Realizar prácticas de gobernanza de datos.
- Mantener documentación técnica y gestión de archivo.
- Garantizar el suministro de información transparente a los usuarios de sus sistemas.
- Contar con sistema de gestión de calidad establecido, para realizar “evaluaciones de cumplimiento” y mantener registros generados automáticamente.
- Los proveedores también deben marcar con las siglas CE los sistemas de IA de alto riesgo (o documentación) para indicar su conformidad.
Desde el principio, FRISS se ha comprometido a incorporar los principios clave de IA responsable, como la reducción del sesgo, la transparencia y la gestión del riesgo, centrándose en los siguientes aspectos:
Reducción del sesgo: Excluir puntos de datos obvios sobre género, estado civil, nacionalidad, etnia, etc. en nuestros modelos, y los científicos de datos están capacitados para reconocer también posibles equivalencias o sustitutos.
Transparencia: Aplicar IA explicable a todos nuestros modelos, lo que significa que los usuarios finales verán exactamente por qué un siniestro determinado se ha señalado como de alto riesgo.
Gestión del riesgo: implementar evaluaciones de impacto en la protección de datos (DPIA, por sus siglas en inglés) en el proceso de desarrollo y adoptar un enfoque de privacidad desde el diseño, de conformidad con el RGPD.