Europa Dita o Ritmo: a Regulação de IA que Promete Ser o Novo Padrão Global.

A Europa mais uma vez largou na frente e no dia 13 de Março o Parlamento Europeu aprovou por ampla maioria (523 votos a favor, 46 contra e 49 abstenções) a Lei de Inteligência Artificial. Uma boa notícia por um lado, mas que sempre levanta muitas discussões, algo comum toda vez que o Poder Público adentra nas questões de privacidade do cidadão.

O foco principal das atenções nesse primeiro esforço de regulamentar a IA foi com certeza a leitura biométrica, mais precisamente a coleta e análise preditiva de dados a partir do reconhecimento facial, a qual será o foco desse artigo.

A coleta de dados pelo reconhecimento facial é algo que já existe há bastante tempo e que vem se aprimorando com os algoritmos aprendendo a reconhecer não só atitudes criminosas, mas também atitudes suspeitas e até mesmo comportamentais, como as de consumo, por exemplo. Isso resulta no que chamamos de análises preditivas.

Segundo o Google Cloud, “a análise preditiva é o processo de usar dados para prever resultados futuros. O processo usa análise de dados, machine learning, inteligência artificial e modelos estatísticos para encontrar padrões que possam prever comportamentos futuros”.

Um caso clássico de análise preditiva, muito contado nas escolas de marketing foi o do supermercado Target no EUA no início dos anos 2000.

De acordo com o que foi relatado, um pai irritado visitou uma loja Target para reclamar com os gerentes. Ele estava indignado porque sua filha adolescente havia recebido cupons pelo correio para produtos de bebê, como fraldas e mamadeiras. Ele interpretou isso como uma incitação para que ela engravidasse.
Acontece que a Target já utilizava nessa época análise preditiva baseada nos dados e hábitos de compra dos seus clientes, através de análises de dados cruzadas pelo estatístico da companhia, Andrew Pole. Neste caso específico, a equipe de Andrew havia identificado padrões nas compras da filha que, baseados em seu algoritmo, correspondiam aos de uma mulher grávida em seu primeiro trimestre. O sistema então automaticamente enviou cupons para produtos que correspondiam a essa fase da gravidez.

Não demorou para constatar-se que a filha estava realmente grávida. O caso revelou não apenas a precisão do sistema de análise preditiva criado por Andrew e sua equipe da Target, mas também levantou discussões sobre a privacidade, ética e até que ponto as empresas podem ir na coleta e uso de dados pessoais.

O problema é que agora existe o reconhecimento facial e a análise comportamental baseada em coleta de imagens e não apenas dos dados que o cliente inequivocadamente informa ao passar suas compras no caixa usando o seu CPF.

Ainda no mesmo setor, já existem supermercados aqui mesmo, no Brasil, que podem se antecipar e flagrar um gatuno de bebidas alcóolicas somente pela análise do seu comportamento próximo às gôndolas. Os softwares aprenderam a interpretar a distância, a posição do braço e outros parâmetros que levam a identificação do suspeito pelo seu comportamento padrão.

Esses exemplos dos supermercados são apenas dois entre as milhares de aplicações da IA utilizando o processo de análise do comportamento humano. Justamente aí que começam as polêmicas e as discussões acaloradas sobre o tema. Por um lado, se você limita o uso da IA para reconhecer esses padrões, você de certa forma está incentivando o crime ou atos obscuros, ou talvez simplesmente privando o consumidor de uma experiência de atendimento mais personalizada. Por outro lado, se você não limita a coleta de dados baseado em perfis, comportamentos e dados biométricos, você está cerceando o direito à privacidade do cidadão comum. Seria o fim da privacidade e provavelmente os seus dados comportamentais seriam usados para situações até então inimagináveis.

Para resolver esse dilema a nova Lei prevê que o que eu vou chamar de “stalkeamento biométrico” por parte da polícia só possa ser posto em prática com ordem judicial ou administrativa. Assim, um suspeito de terrorismo poderá ser monitorado para saber sua localização ou para monitorar seu comportamento através da IA.
Muita gente vai se lembrar do filme “The Minority Report” dirigido por Steven Spielberg e com atuação de Tom Cruise, onde em um futuro não muito distante (o ano no filme é 2054) os crimes podiam ser previstos antes de acontecerem. O detalhe que é a obra que inspirou o filme “The Minority Report” foi escrito em 1956 por Philip K. Dick, ou seja, análise preditiva não é algo novo. A novidade é a possibilidade que a IA trouxe de analisar bilhões de dados instantaneamente e predizer o que vai acontecer. Mais uma vez a ficção se tornando realidade.

Num mundo cada vez mais monitorado, isso equivale a ter uma tornozeleira eletrônica em alguém, o que seria louvável para localizar um foragido, mas temerário para o cidadão comum.

Voltando à questão da autorização judicial, numa comparação mais direta, assim como uma escuta telefônica precisa de autorização da Justiça, a coleta e análise de dados através do reconhecimento facial também precisará de autorização a partir da nova Lei, mantendo-se assim o Estado no direito de monitorar, mesmo de forma preventiva, através do reconhecimento biométrico, um cidadão condenado ou suspeito por exemplo, de estupro, terrorismo, sequestro ou de qualquer ato grave contra a Lei, desde que se tenha autorização judicial e por local e tempo determinado.

Outro ponto de receio é que o uso da IA generativa a partir de reconhecimento biométrico possa resultar em discriminação racial ou xenofobia. Fica assim proibido o policiamento preditivo, aquele que se baseia exclusivamente na definição de perfis de uma pessoa ou na avaliação das suas características.

A Lei vem também para proibir determinadas aplicações de IA que possam ameaçar o direito do cidadão. Isso inclui sistemas de classificação biométrica que sejam baseados em características sensíveis, bem como a coleta de imagens faciais da Internet ou de CFTV (circuito fechado que inclui as câmeras IPs privadas e públicas) para criar bases de dados de reconhecimento facial. Outro ponto importante que a Lei proíbe é o reconhecimento de emoções no local de trabalho e nas escolas.

A Lei ainda tem um longo caminho a percorrer para entrar em validade. Pelo menos 24 meses para ser plenamente aplicável, mais o período de adaptação de cada regulamentação de prática proibida. É um pontapé inicial que provocará discussões e assim como a GDPR (General Data Protection Regulation) Europeia de 2018 virou referência mundial, é bem provável que a Lei de inteligência Artificial europeia venha a se tornar o padrão a ser seguido pelos países no futuro.
 
Augusto Barretto, 19.MARÇO.2024 | Postado em Artigos

Carregando...