Fundação Vanzolini

Ética e Inteligência Artificial: muito além da proteção de dados

26 de setembro de 2024 | 8min de leitura
Compartilhe:

A Inteligência Artificial (IA) está por toda parte. Sem perceber, interagimos com essa tecnologia de dados a todo momento e, justamente por isso, o uso da Inteligência Artificial deve ser permeado pela ética.

Do streaming de filmes aos aplicativos de banco, as ferramentas da Inteligência Artificial usam informações pessoais e organizacionais e estão no “comando dos comandos”.

Diante disso, a Inteligência Artificial não pode ser aplicada de forma indiscriminada, e a ética, que dentre muitas definições, “é a investigação geral sobre aquilo que é bom“, segundo,  G. E. Moore, deve reger seu uso, para que possamos usufruir de seus benefícios, sem danos.

Quando a IA foge da ética, as empresas podem sofrer com penalidades judiciais, prejuízos econômicos e perda de credibilidade no mercado. Mas, como fazer da ética uma prática e garantir o respeito a ela no uso da Inteligência Artificial? Acompanhe a leitura e descubra!

O que é Inteligência Artificial (IA)?

A Inteligência Artificial é uma tecnologia que possibilita que computadores e máquinas resolvam problemas a partir da inteligência humana. Ou seja, trata-se de uma tecnologia capaz de realizar tarefas que, de outro modo, necessitariam da inteligência ou intervenção humana.

Sozinha ou combinada com outros recursos tecnológicos, como sensores, geolocalização e robótica, a IA tem a capacidade de fazer uma máquina funcionar, inspirada no comportamento humano.

Como exemplos do uso da IA, temos as plataformas de streaming, os aplicativos de banco, as assistentes digitais, a orientação por GPS, os veículos autônomos, as ferramentas generativas de IA (como o Chat GPT) e as ferramentas de gestão de projetos.

Ética versus avanço tecnológico

Uma coisa não exclui – e nem deve – a outra. Para que a tecnologia seja benéfica para pessoas e empresas, ela precisa ser permeada pela ética. Caso contrário, em vez de ter seu papel inovador e revolucionário, o avanço tecnológico agride, expõe, segrega e exclui. Uma maneira de fazer a ética presente no uso e no desenvolvimento da Inteligência Artificial é por meio da educação.

Dessa forma, promover o aprendizado de ética na formação do profissional em tecnologia é uma maneira de colaborar com a prevenção de possíveis desvios de rota que podem surgir na carreira.

Afinal, a pressão por resultados é grande, mas o dever com a ética e a responsabilidade com o uso das ferramentas tecnológicas deve ser maior.

A importância da ética na tecnologia do futuro

A velocidade surpreendente no avanço da tecnologia tem colocado em xeque muitas vezes a ética. No entanto, uma prática ética é essencial para garantir que as tecnologias não visem apenas o lucro, mas que sejam também socialmente responsáveis.

De acordo com uma reportagem publicada na Forbes, 96% das pessoas consideram que a IA deve ser ética e responsável, e a pesquisa realizada pela Prosper Insights & Analytics mostrou que 26,8% dos adultos norte-americanos ainda precisam se adequar às medidas de segurança digital.

Assim, a responsabilidade no uso da Inteligência Artificial de hoje e do futuro deve envolver sociedade civil, empresas e governos, para promover justiça, privacidade e segurança, e também evitar preconceitos nas aplicações tecnológicas.

Para que haja tecnologia e sociedade do futuro, é preciso que as ações éticas sejam tomadas agora.

Princípios éticos para o desenvolvimento e uso da IA

Como forma de gerenciar o uso da IA, os estudiosos têm usado o Relatório Belmont como uma diretriz para orientar os princípios éticos dentro da pesquisa experimental e desenvolvimento de algoritmos.

Para ajudar nas pesquisas, experimentos e práticas com a IA, destacamos três princípios importantes extraídos do Relatório Belmont:

Respeito pelas pessoas: reconhece a autonomia dos indivíduos e espera que os pesquisadores protejam as pessoas com autonomia reduzida, como pessoas com enfermidade, incapacidade mental e restrições de idade.

Aqui, trata-se, sobretudo, da ideia de consentimento. Desse modo, as pessoas devem estar cientes dos possíveis riscos e benefícios de qualquer experimento do qual façam parte.

Beneficência: princípio de “não fazer mal”, pois sendo uma tecnologia baseada no comportamento humano, pode replicar vieses em torno de raça, gênero, política, entre outros.

E a ética deve impedir que haja o preconceito por parte dos mecanismos da IA, para fazer o bem e melhorar o cenário para todos.

Justiça: princípio que trata de problemas como justiça e igualdade.

Responsabilidade e regulamentação da IA

Para que o avanço da Inteligência Artificial possa gerar benefícios significativos para pessoas e empresas, além dos princípios citados acima, a legislação brasileira dispõe de responsabilidades na esfera civil e criminal. Veja só:

Responsabilidade Civil:

A legislação brasileira prevê a responsabilização objetiva, baseada no risco da atividade desenvolvida, nos termos do artigo 927 do Código Civil. Nesse caso, a responsabilidade recai sobre o desenvolvedor, proprietário ou usuário do sistema de IA, dependendo das circunstâncias do caso.

No entanto, vale destacar que a responsabilidade civil pode ser afastada, caso haja provas de que o dano foi causado por culpa exclusiva da vítima ou de terceiros.

Responsabilidade Criminal:

A responsabilidade criminal diz respeito a casos envolvendo IA que apresentam desafios relacionados à culpabilidade e à intenção. Assim, de acordo com o ordenamento jurídico brasileiro, a responsabilidade penal é subjetiva e exige a comprovação da culpa ou dolo do agente.

Em situações envolvendo IA, pode ser difícil atribuir culpa a um sistema autônomo. Desse modo, é fundamental avaliar a participação humana na criação, controle e monitoramento da IA.

Marco Civil da Internet e Proteção de Dados:

No Brasil, temos também o Marco Civil da Internet (Lei nº 12.965/2014) e a Lei Geral de Proteção de Dados (Lei nº 13.709/2018), leis que estabelecem diretrizes para o uso responsável e seguro da tecnologia, incluindo a inteligência artificial.

Os textos preveem a necessidade de consentimento, transparência, segurança e prestação de contas no tratamento de dados pessoais, o que impacta diretamente na responsabilidade relacionada à IA.

Quando uma empresa – ou uma pessoa – não cumpre com a legalidade, ela pode sofrer com ações legais e multas, comprometendo sua credibilidade e seu bolso.

Construindo um futuro tecnológico responsável e ético

De acordo com o artigo Ethics can’t be delegated (A Ética não pode ser delegada, em tradução livre), a responsabilidade em relação à IA deve envolver todo o time e, inclusive, a liderança. Para que a ética esteja presente na tecnologia e nos seus resultados, todas as pessoas devem compartilhar da mesma visão e dos mesmos valores. Veja a seguir alguns dados do estudo sobre a utilização da IA nas organizações: 

  • 58% dos executivos acreditam que a adoção da IA acarreta riscos éticos;
  • 79% dos executivos afirmam que a ética da IA generativa é uma prioridade;
  • – 25% das empresas operacionalizam os princípios comuns de ética;
  • 80% dos executivos afirmam que os líderes empresariais deveriam ser os responsáveis pela ética da IA. 

Diante desse contexto e pensando em colaborar para construção de um futuro tecnológico responsável, a Fundação Vanzolini, em parceria com a IEEE Standards Association, organizou um treinamento exclusivo na Escola Politécnica da Universidade de São Paulo (Poli-USP), de 19 a 22 de agosto de 2024.

O encontro foi uma oportunidade para profissionais que desejam se destacar na avaliação ética de Sistemas Inteligentes Autônomos (AIS). Essa certificação é essencial para garantir que a Inteligência Artificial seja utilizada de maneira ética, abordando questões como privacidade, transparência e responsabilidade.

A IEEE Standards Association é a maior organização profissional técnica dedicada ao avanço da tecnologia para o benefício da humanidade, com uma vasta gama de publicações, conferências e atividades educacionais.

Pioneira na certificação de Sistemas de Gestão da Qualidade no Brasil, a Fundação Vanzolini é reconhecida por sua excelência em diversas áreas, incluindo Construção Civil, Saúde, Segurança da Informação, Sustentabilidade, Alimentação e Gestão da Qualidade.

Juntas, as organizações visam integrar princípios éticos no design e implementação de sistemas autônomos, aumentando não só a confiança pública nas tecnologias emergentes, mas também assegurando que essas inovações contribuam positivamente para a sociedade como um todo.

Tecnologia sem ética, é tecnologia sem futuro.

Até o próximo!

Fontes:

Relatório Belmont

Quando o assunto é tecnologia, o estudo de ética é necessário

Responsabilidade Civil e Criminal em Caso de Inteligência Artificial

Responsabilidade ética no uso da Inteligência Artificial

Posts Relacionados