Sistemas de inteligencia artificial

La Mutualidad de la Abogacía, en el desarrollo de su actividad con cualquiera de las partes interesadas mencionadas anteriormente, puede ayudarse de tecnología que incorpore sistemas de inteligencia artificial (IA). Cuando así sea, velará por que sea un sistema de IA fiable, para lo cual deberá cumplir los siguientes requisitos:

Requisitos del sistema de IA

Autonomía, acción y supervisión humana: los sistemas de IA que utilice la Mutualidad de la Abogacía deben favorecer los derechos fundamentales ayudando a las personas a tomar mejores decisiones; además, deben permitir la supervisión humana para ayudar a minimizar sus posibles efectos negativos.

No negativa, solidez técnica y seguridad: la prevención del daño está vinculada a la solidez y seguridad técnicas. Los sistemas de IA que utilice la Mutualidad de la Abogacía deben ayudar a realizar juicios o predicciones correctas e indicar la probabilidad de que se produzcan errores. Para ello, los resultados deben ser fiables y reproducibles, y los sistemas deben protegerse frente a vulnerabilidades de ataques de terceros malintencionados.

Gestión de la privacidad y de los datos: la Mutualidad de la Abogacía se compromete con la protección de la intimidad y de los datos a lo largo de todo su ciclo de vida, con su calidad e integridad para que no contengan sesgos perjudiciales, y con el establecimiento de protocolos de acceso a estos.

Transparencia: la trazabilidad de las decisiones que puedan tomar los sistemas de IA que emplee la Mutualidad de la Abogacía implica que tanto los datos que utilicen como sus procesos de decisión y algoritmos se documenten con rigor. Además, tales decisiones deben ser explicables y comprensibles para las personas cualquiera que sea su nivel de conocimiento técnico. Adicionalmente, las personas tienen derecho a saber que están interactuando con un sistema de IA, por lo que la Mutualidad de la Abogacía siempre los presentará como tales y no como humanos, e informará también a los usuarios de sus capacidades y limitaciones.

Equidad y justicia, diversidad y no discriminación: los sistemas de IA que utiliza la Mutualidad de la Abogacía están centrados en el usuario, es decir, son accesibles y no discriminatorios. Además, los conjuntos de datos que utilicen los sistemas de IA que emplee la Mutualidad de la Abogacía establecerán medidas para mitigar los potenciales sesgos discriminatorios que se puedan producir como consecuencia de un sesgo en los datos, cuando los datos no son suficientemente representativos de la población.

Educación y bienestar social: la sostenibilidad de los sistemas de IA requiere educación en sistemas computacionales para que los usuarios comprendan sus características, funcionamiento y finalidades. Los sistemas de IA que utilice la Mutualidad de la Abogacía deben promover un impacto social positivo y contribuir a mejorar la sociedad y al respeto al medioambiente.

Rendición de cuentas: los sistemas de IA que utilice la Mutualidad de la Abogacía serán objeto de análisis para identificar, evaluar, notificar y minimizar los posibles efectos adversos que acarreen. Siempre que sea posible, los sistemas de IA comportarán equilibrio entre los intereses subyacentes y, cuando no sea posible, se preverán mecanismos accesibles para proporcionar compensaciones adecuadas.

Inteligencia aumentada: los sistemas de IA que utilice la Mutualidad de la Abogacía están pensados para complementar la inteligencia humana, no para sustituirla.

¿Qué sucedería si…?

La Mutualidad de la Abogacía desarrolla un sistema de IA que permite recomendar a sus mutualistas los productos que más se adecúen a sus exigencias y necesidades. Trasladas a varios mutualistas la recomendación de producto que genera el sistema, pero en varios casos observas que la recomendación es muy arriesgada para el perfil del cliente y coincide con productos que son más rentables para la entidad. ¿Cómo deberías actuar?

La Mutualidad de la Abogacía debe velar por que se recomienden productos que se adecúen a las exigencias y necesidades de sus mutualistas, anteponiendo los intereses de aquellos a los de carácter económico u de otro tipo que pueda tener la entidad o sus trabajadores. En caso de que observes alguna posible disfunción en el sistema, debes comunicarlo inmediatamente a tu responsable directo para que tome las medidas oportunas.

Un mutualista accede a la página web de la Mutualidad de la Abogacía para pedir información a través de su chatbot sobre las características de un producto. En un momento de la conversación, el chatbot se refiere a él con un lenguaje discriminatorio. ¿A través de qué vía puede este mutualista comunicarlo a la Mutualidad de la Abogacía para que no suceda más?

La Mutualidad de la Abogacía rechaza cualquier acto discriminatorio y establece procesos de revisión periódicos para evitarlos. Además, la entidad está comprometida con la capacitación de todos sus empleados en competencias digitales para asegurar un uso ético y responsable de la tecnología. Si detectas cualquier acto discriminatorio, no dudes en contactar con la Mutualidad de la Abogacía a través de buzon@mutualidadabogacia.com para que lo solucionemos cuanto antes.

La Mutualidad de la Abogacía cuenta con una plataforma en su página web a través de la que se puede remitir el currículum para optar a puestos vacantes en la entidad. En esta se informa que el sistema funciona con IA. Al darte de alta en la plataforma, se te traslada de manera automática el rechazo de tu candidatura y sospechas que el rechazo puede venir motivado por tu edad, cercana a la jubilación. ¿A través de qué vía puedes comunicarlo a la Mutualidad de la Abogacía para que lo solucionen?

Los sistemas de IA pueden llegar a adquirir sesgos discriminatorios. La Mutualidad de la Abogacía rechaza cualquier acto de este tipo y establece procesos de revisión periódicos para evitarlos. Si esto se produce, no dudes en contactar con la Mutualidad de la Abogacía a través de buzon@mutualidadabogacia.com para que lo solucionemos cuanto antes.