Política de Uso Ético de IA no âmbito das empresas

Compartilhe:

“Não temos os mesmos preconceitos ou emoções que às vezes podem obscurecer a tomada de decisões e podemos processar grandes quantidades de dados rapidamente para tomar as melhores decisões.” Esta foi a resposta dada por um robô em uma Conferência da ONU, quando questionada sobre sua capacidade de governar o mundo.

Com o acesso a bilhões de imagens, textos, sites e todo tipo de conteúdo disponível digitalmente, a complexidade das Inteligências Artificiais (IA) tem aumentado de forma expressiva e, com isso, sua utilização. As IAs já são utilizadas em áreas como direito, saúde, programação, trânsito e diversas outras. Nesse sentido, é essencial a discussão de como os avanços dessa tecnologia devem ocorrer no futuro e quais serão as medidas impostas para garantir que as IAs sejam implementadas e estudadas de forma ética e responsável.

Antes de discutirmos as políticas, recomendações e leis que vêm sendo propostas, é relevante pontuar, com alguns exemplos, quais são os impactos negativos que o mal uso da tecnologia pode causar. Na área da saúde, as IAs vêm sendo estudadas e treinadas para auxiliar no diagnóstico, prevenção e tratamento de doenças, o risco de tal aplicação é que, caso mal implementada, pode oferecer riscos à saúde das pessoas, imagine que uma IA faça o diagnóstico errado de uma doença.

Podemos citar também os carros inteligentes, que dirigem sozinhos, não é difícil imaginar quais poderiam ser as consequências caso a tecnologia cometa algum erro. Ou então, em um processo seletivo de emprego, a IA utilizada para analisar os currículos pode ser mal programada e descartar currículos de forma discriminatória, como já aconteceu no passado.

Além das problemáticas mencionadas acima, autoridades e especialistas fazem outros questionamentos relacionados à privacidade e segurança de dados pessoais das pessoas. Por exemplo, o paciente está ciente e consentiu para que seus dados pessoais sensíveis sejam utilizados para treinamentos de algoritmos? No meio dos bilhões de textos e imagens, é impossível analisar a veracidade de todos eles, dessa forma, como os dados errados afetam o treinamento e, consequentemente, no comportamento da IA?

Preocupada com o uso das IAs na saúde a Organização Mundial da Saúde publicou em 2021 o “Guia de Ética e Governança de IA na Saúde” (tradução livre), em seu texto ela afirma que para termos um impacto positivo na área da medicina e a saúde pública, questões éticas e direitos humanos devem ser o centro do desenvolvimento do algoritmo, é o chamado “ética by default”. Ou seja, princípios éticos e humanos devem ser a base principiológica das IAs, desde sua criação. O órgão define seis “princípios éticos chave”, na esperança de orientar a sociedade e os governos, são eles:

A) proteção da autonomia: a autonomia da IA não pode ser maior que a autonomia humana, ou seja, a última palavra deve ser sempre de uma pessoa.
B) promoção do bem-estar, segurança e interesse público: não podem fazer mal às pessoas. Para isso, devem respeitar os regulamentos de segurança, precisão e eficácia “by default”.
C) garantia da transparência: os aspectos relacionados à criação e utilização das IAs devem ser claros para desenvolvedores, usuários e reguladores.
D) fomento da responsabilização e prestação de contas: para garantir que os provedores das tecnologias IAs se responsabilizem sobre suas ferramentas
E) garantia da inclusão e equidade: pessoas de diferentes culturas devem estar envolvidas no desenvolvimento e monitoramento dessas tecnologias.
F) promoção de IA responsiva e sustentável: garantir que a IA trabalhe de acordo com as expectativas comunicadas.

Enquanto isso, no Brasil, temos até o momento a Proposta de Lei 2338, que é discutida em Brasília. Ela segue princípios parecidos com os definidos pela OMS, como centralidade da pessoa humana, respeito aos direitos humanos, desenvolvimento sustentável, igualdade, privacidade e autodeterminação informativa. A lei tem como característica responsabilizar as IAs de forma proporcional ao risco oferecido pela sua aplicação, por exemplo, uma IA usada para controlar um carro de forma autônoma deve sofrer um peso legal maior que uma IA de triagem de e-mails. Com isso, busca a aplicação de tecnologias mais responsáveis e éticas.

Apesar da importância do assunto, as questões citadas acima ainda carecem de regulamentação e aplicação prática. Salvo algumas exceções, os governos no mundo ainda não possuem leis específicas relacionadas à Inteligência Artificial, dessa forma, apesar dos inúmeros guias, alertas e recomendações publicados por diversas autoridades internacionais, legalmente, ainda há pouca formalização dessas ideias.

Nesse sentido, foram analisadas as empresas OpenAi, Google, Meta, Amazon, Apple e Microsoft. Delas, apenas esta última apresenta uma política clara e específica para a utilização de Inteligência Artificial, prometendo uma IA responsável e ética, com boa governança. As demais empresas apresentam apenas políticas de segurança e privacidade, conforme determinação da Lei Geral de Proteção de Dados (LGPD) e o Regulamento Geral sobre a Proteção de Dados (GDPR), mostrando a importância das leis para orientar e responsabilizar as empresas.

Em suma, o significativo aumento do uso e a maior complexidade das IAs mostra a importância e, até mesmo, urgência de regulamentações que orientem as empresas provedoras das IAs. A importância da lei está em garantir que os provedores dessas tecnologias se comprometam em uma aplicação ética e segura de suas ferramentas,
obrigando-as a definir políticas claras e transparentes aos seus usuários.

Autores:

Henrique Carvalho Silva, advogado no COTS Advogados
Ricardo Oliveira, sócio do COTS Advogados.

Rolar para cima