- Risco Seguro Brasil
- Posts
- Saiba por que a Mapfre está reforçando sua governança de IA
Saiba por que a Mapfre está reforçando sua governança de IA
Empresa já trabalha na adaptação à recém-aprovada Lei da UE sobre IA, que deve ter um reflexo também no Brasil
O Parlamento Europeu aprovou em maio a mais completa regulamentação do uso de inteligência artificial pelas companhias, em um conjunto de regras que vai impactar empresas de todos os setores, incluindo o de seguros.
A princípio, a Lei da UE sobre IA (mais conhecido como AI Act, pela sigla em inglês) vai afetar empresas que atuam na União Europeia ou têm clientes baseados nos 27 países da região.
Mas Elena Mora, diretora Privacidade e Proteção de Dados do grupo Mapfre, que conversou com a RSB em Madri, avisa que as normas já servem como um modelo do que espera as seguradoras e seus clientes também em outras partes do mundo. O que inclui o Brasil, um dos mais importantes mercados da seguradora espanhola.
Nós vamos ver um boom de regras sobre a inteligência artificial, e o Brasil, em particular, acompanha muito de perto a regulamentação europeia. Foi o que se viu no caso da regulamentação da proteção dados, em que LDGP brasileira se baseou muito no GDPR europeu.
Por isso a Mapfre já está trabalhando no cumprimento do AI Act não só nas atividades da matriz espanhola e suas filiais europeias, mas também em suas filiais internacionais, como a brasileira.
O que significa que a empresa terá muito trabalho pela frente. O descumprimento às novas normas pode render pesadas penas financeiras às empresas, chegando a 7% do faturamento anual ou €35 milhões (R$ 200,5 milhões).
Níveis de risco
A principal inovação da AI Act é definir quatro níveis de riscos dentro dos quais as empresas precisarão classificar os sistemas de inteligência artificial que utilizam em suas operações.
O nível mais baixo de risco não exigirá qualquer tipo de ação, enquanto o segundo nível, de riscos considerados baixos, estarão sujeitos a leves requerimentos de transparência.
A coisa começa a se complicar quando o risco é visto como elevado, caso em que as empresas terão que rastrear e monitorar sua utilização, além de manter os reguladores informados sobre seu uso.
O último nível é o de risco inaceitável, que incluem usos como a manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis, a classificação de pessoas com base no seu comportamento ou caraterísticas pessoais e os sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial.
As empresas que estiverem usando tais tecnologias terão seis meses, após a publicação das novas regras, para eliminá-los de seus sistemas.
Dois anos
A implementação do AI Act tem diferentes prazos, mas para a Mapfre o horizonte mais importante é o de dois anos, quando as organizações necessitam estar em total conformidade com as regras.
Mora afirma que a Mapfre não esperou até a aprovação das novas regras para começar a atuar. Foram vários meses de debates no Parlamento Europeu que já indicavam os rumos que a legislação seguiria e que permitiram às empresas mais proativas a iniciar sua preparação.
Ela explica que o AI Act tem importantes áreas de contato com as legislações de proteção de dados e privacidade, e o fato de que a empresa já havia implementado uma robusta estrutura na área tem sido bastante útil.
Temos nosso próprio modelo de governança da privacidade e da proteção de dados, e buscamos nos antecipar e nos adequar o mais cedo possível às várias regulamentações. Nosso principal objetivo é assegurar que o impacto seja mínimo.
Uma das prioridades da Mapfre, portanto, é aproveitar o trabalho já feito que se encontra nas áreas de convergência entre os sistemas de conformidade já existentes e a nova governança de inteligência artificial.
Sinergia
“Desde o princípio nós criamos um grupo de trabalho multidisciplinar para aproveitar ao máximo as sinergias entre os vários departamentos. Decidimos não focar apenas nas funções que tratam de dados pessoais, mas em qualquer tema que possa estar incluído nas normas europeias sobre inteligência artificial”, afirmou.
O que abrange não só as áreas de TI, mas também a subscrição de riscos, a gestão de sinistros, o recrutamento de novos talentos e a análise de dados de clientes e provedores, entre muitas outras.
Mesmo os sistemas que acabem sendo considerados de baixo risco exigirão trabalho, pois os supervisores podem querer comprovar a autoavaliação feita pela empresa.
Documentação terá que ser preparada, catalogada e atualizada, e é importante que a determinação do nível de risco de cada sistema usado pela empresa seja convincente para os supervisores. (Ainda não se definiu quem será responsável por decidir se empresas estão ou não em conformidade.)
Somos um setor que realiza muito tratamento de dados, onde há um forte componente técnico e de gestão de risco, e por esse motivo as políticas de subscrição podem ser impactadas. Será necessário revisá-las e talvez adequá-las às novas normas, ou adaptá-las para que fique claro que estão em conformidade.
Os mais afetados
O setor de seguros é uma das indústrias citadas nominalmente no AI Act como alvos de especial atenção na implementação das novas regras.
Mora conta que, durante um momento, havia propostas de colocar todo o setor debaixo da lupa. Ao final, porém, após muita negociação, ficou decidido que os segmentos que mais preocupam são os de seguros de vida e de saúde.
Isso porque o principal objetivo do AI Act é proteger a privacidade dos consumidores, e as seguradoras de vida e saúde lidam com quantidades ingentes de dados pessoais.
Mas de modo algum o foco nessas duas linhas significa que quem não tem uma forte atuação nelas pode levar a conformidade com o AI Act na maciota.
Será necessário revisitar todas as operações. No final, quando uma empresa adota um novo sistema que utiliza a inteligência artificial, é necessário assegurar que está de acordo com as normas. Não importa se é para a subscrição de riscos, a formação de empregados ou o recrutamento.
Como a presença da inteligência artificial nas atividades diárias das seguradoras só tende a aumentar, as empresas precisam estar preparadas para estar frequentemente realizando os trabalhos de avaliação, catalogação, rastreamento e reporting dos riscos ligados aos novos sistemas usados por cada departamento da empresa.
São custos e trabalho extras para um setor que já está para lá de regulado, mas Mora diz que, no final das contas, a conformidade com as regras também demonstra o compromisso de uma empresa com seus stakeholders.
A verdade é que muita gente está preocupada com o possível impacto da inteligência artificial sobre a economia e a sociedade. Até líderes de grandes empresas tecnológica que estão faturando montanhas de dinheiro com a IA andam alertando que é preciso ter cuidado com seu uso.
Ademais do compliance, queremos fazer, em todos os momentos, um uso responsável e seguro dos sistemas de inteligência artificial.
Edições anteriores
RSB # 15 - Entrevista com Daniel Castillo: Menor e com carteira mais limpa, IRB(Re) quer voltar a crescer
RSB # 7 - Onde estão os seguros para a transição energética?
RSB # 2 - Mais capacidade de resseguro à vista?
RSB # 1 - Seguro cyber caro chegou para ficar
Reply