La importancia de una implementación ética de la IA en el sector financiero | NTT DATA

lu., 02 agosto 2021

La importancia de una implementación ética de la IA en el sector financiero

Con los nuevos avances en inteligencia artificial se está produciendo un aumento en torno a preocupaciones éticas como, por ejemplo, el sesgo algorítmico o la equidad y transparencia de los resultados. De hecho, la Comisión Europea anunció en abril de 2021 una innovadora propuesta de reglamento enfocada a regular cómo las empresas y los gobiernos podrán utilizar la inteligencia artificial en sus actividades. Con esta regulación, las compañías que utilicen sistemas de IA considerados de alto riesgo estarán sometidas a estrictas obligaciones y deberán proporcionar evidencias de la imparcialidad de los procesos de toma de decisiones y de su seguridad.

Las preocupaciones alrededor del uso ético de la IA son especialmente importantes en el sector financiero dada la sensibilidad de la información que recopilan las entidades. La Autoridad Bancaria Europea ha dejado claro su interés en que la ética debe formar parte de los sistemas de IA. Dado que cada vez más y más entidades están diseñando e implementando su estrategia utilizando el análisis de datos y la IA, es más importante que nunca que estas incluyan dichas preocupaciones. No cabe duda de que la evolución hacia una integración ética de la IA en el mundo de las finanzas es un gran desafío para la industria, tanto desde un punto de vista técnico como desde el punto de vista de las inversiones necesarias para ello, por lo que es vital entender la importancia de la ética en el sector financiero y convertirlo en un asunto prioritario.

Teniendo esto en cuenta, ¿por dónde deberían empezar las entidades financieras a la hora de abordar los problemas del uso ético de la IA? El primer paso es reconocer y tener en cuenta cuestiones como el sesgo, la fiabilidad de los algoritmos, la preocupación por la equidad de los resultados y la falta de transparencia al diseñar e implementar una estrategia utilizando el análisis de datos y la IA. En este sentido, la estrategia debe crearse dentro un marco que incorpore acciones tácticas, relacionadas con los sistemas y algoritmos de la IA, la administración, la sociedad y organización.

Algoritmos y sistemas de inteligencia artificial

El rápido desarrollo de esta tecnología en los últimos años, unido a su previsible aceleración en un futuro próximo, ha hecho que la capacidad de la IA para transformar procesos y generar nuevos modelos de negocios, servicios y experiencias, crezca de forma exponencial. Las instituciones financieras que quieren mantenerse al día con respecto a las necesidades del mercado llevan años incorporando nuevas tecnologías como el aprendizaje automático, el cual les ayuda a mejorar su proceso de toma de decisiones debido a su capacidad para procesar grandes cantidades de datos. Pero, ¿cómo puede una entidad financiera implementar unas directrices éticas compatibles con cada paso de este elaborado proceso? Hemos identificado cuatro factores clave que ayudan a las empresas en el desafío de la implantación ética de la IA:

  1. Transparencia - Hay un interés creciente por conocer y comprender las decisiones que toman los sistemas de inteligencia artificial, ya que pueden condicionar el acceso a productos como créditos o planes de inversión. La explicabilidad es particularmente importante para desarrollar e implementar modelos éticos, ya que permiten entender cómo los algoritmos han alcanzado un resultado determinado. Este aspecto es importante tanto para explicar qué sucede en el proceso de toma de decisiones como para poder transmitírselo a las distintas áreas de negocio. La trazabilidad es otro factor clave, porque exige que todos los datos que se recogen y procesan estén documentados. Esto es fundamental para reducir las preocupaciones éticas, ya que permite rastrear hasta el origen la información que pueda tener un impacto en la exclusión financiera de grupos específicos. Finalmente, la comunicación, es indispensable a la hora de incrementar la transparencia, puesto que hay que informar a los usuarios en todo momento de que están interactuando con sistemas de IA.
  2. La equidad es otro componente importante y a la vez controvertido en la ética de la IA. Cualquier tecnología de inteligencia artificial no solo debe garantizar la accesibilidad a todos los individuos, sin importar la edad, el género, la raza, la orientación sexual, político o religiosa, sino que también debe garantizar que los procesos de toma de decisiones no estén influenciados por ningún tipo de sesgo. Para reducir el riesgo, cualquier sistema de IA ético debe tener en cuenta varios aspectos, como el hecho de que los datos son representativos y se pueden generalizar, o que el diseño no incluirá variables, rasgos o estructuras que no posean la justificación adecuada. Además, los resultados no pueden generar situaciones discriminatorias para el individuo que esté involucrado, y la implementación de un sistema basado en IA debe llevarse a cabo por profesionales que hayan sido formados en cómo hacer que los sistemas funcionen de forma responsable.
  3. Seguridad – cuando se implementan tecnologías de inteligencia artificial, deben contar con modelos internos de seguridad que protejan a las entidades de ciberataques. Establecer protocolos de seguridad adecuados es de suma importancia para mantener la integridad del sistema en circunstancias desfavorables. Para ello, el sistema de seguridad debe ser calibrado de forma rigurosa, además de ser fiable sin importar cambios inesperados, anomalías o potenciales fallos. La seguridad y la robustez del sistema dependen de pruebas, validaciones y evaluaciones constante
  4.  Privacidad - la protección de datos personales suele ser el núcleo de cualquier problemática de carácter ético relacionada con la IA. Se puede abordar desde diferentes puntos de vista (técnico, de investigación, regulatorio), pero el denominador común es la obligación de preservar la protección y la seguridad de los datos personales. Un concepto importante a tener en cuenta es la privacidad por diseño, que alude a la necesidad de garantizar que desde las primeras fases de la creación del sistema la privacidad sea una parte inherente y fundamental a lo largo de su ciclo de vida.

Gobierno de la IA

A raíz de la explosión de popularidad del Big Data, hemos sido testigos de la importancia cada vez mayor del gobierno del dato y de la incorporación de principios regulatorios para asegurar su correcta gestión. El objetivo del gobierno de la IA es integrar el marco ético que guía los principios y los valores para su gestión dentro de las organizaciones.

La supervisión humana es clave a la hora de aportar valor y confianza en el sistema de IA. En un modelo ideal, conocido como Interacción entre el Hombre y la Máquina (Human Machine Interaction) o IA Aumentada, la toma de decisiones se realiza  mediante la combinación de la perspectiva humana y recomendaciones automatizadas. En este sentido, es posible establecer una clasificación acorde al grado de intervención humana. Si el sistema es altamente automatizado (human on the loop), el rol de la supervisión humana se limita al seguimiento de su funcionamiento, mientras que aquellos con un nivel intermedio de nivel de automatización (humain in command), el humano decide cuándo aplicar o ignorar las decisiones de la IA. Finalmente encontramos los sistemas  menos automatizados (human in the loop), que son aquellos en los que las personas se involucran en cada ciclo de decisión y aprueban o no cada propuesta del sistema. A parte de la supervisión humana, tenemos otros 2 aspectos importantes:

 1. La rendición de cuentas es de suma importancia para la administración de la IA. Los principios éticos deben tenerse en cuenta en cada fase del ciclo de vida. Hay que asegurar que existe la capacidad de auditar sistemas y localizar la responsabilidad en todas las etapas. Todos los participantes (creadores, diseñadores, desarrolladores, etc.) son responsables del impacto que pueda llegar a alcanzar este sistema, así como de cualquier fallo que pueda suceder. Esta responsabilidad, asimismo, lleva consigo la obligación de rendir cuentas ante posibles errores o daños producidos por el sistema.

2.  Hacer reporting de toda la información necesaria, acciones o decisiones tomadas que influyen en el resultado del sistema es un requisito básico para un modelo de la IA. Identificar, evaluar, notificar y monitorizar los posibles resultados finales negativos del sistema es importante para aquellos que hayan sido afectados.

La Organización

Los consumidores, así como los trabajadores, son cada vez más conscientes del nivel de compromiso de las empresas en materia de principios éticos. Por tanto, la dirección está obligada a realizar una labor de concienciación dentro de la organización sobre la importancia de la integración ética de la IA, así como priorizar la creación de soluciones que anticipen los problemas derivados de las prácticas poco éticas. Es necesario crear una estructura que apoye estos valores y los integre dentro de la cultura de la empresa.

La creación de un Comité Ético de IA, formado por individuos de dentro y fuera de la organización, permite evaluar las buenas prácticas internas y, a su vez, apoyar el uso ético de la inteligencia artificial. Su efectividad depende del establecimiento de su marco de acción y de procesos de revisión y comunicación, así como su influencia en las políticas institucionales, concretamente cuando se lanza un nuevo producto.

La Sociedad

La IA ética debe servir a los intereses de la comunidad y generar beneficios tangibles a largo plazo. Siguiendo principios como la inclusión, la diversidad, la justicia, la sostenibilidad, la prevención y el progreso, las personas que están al frente de cualquier sistema deben utilizar esta tecnología de forma responsable y con el objetivo de generar un impacto positivo. Desde que la pandemia de la COVID desató el pánico a nivel mundial, nos enfrentamos a un nuevo escenario en el que la realidad de millones de personas ha cambiado de forma radical. Las instituciones financieras deben adaptarse a nuevas formas de evaluar riesgos, personalizando sus pilares en la toma de decisiones acorde a los nuevos contextos sociales y las necesidades crediticias. Ahora, las organizaciones tienen la responsabilidad de llevar a cabo los principios éticos de la IA, utilizando esta nueva tecnología para el beneficio general de la sociedad.

Amplía información sobre el impacto de la AI en el sector financiero y descarga este informe.