A ética no uso da Inteligência Artificial
Dentro de qualquer indústria moderna, a ideia de ética rapidamente aparece. Com a inteligência artificial não está sendo diferente. Em uma descrição rápida, podemos entendê-la como uma maneira de tornar máquinas inteligentes. Possibilitar que elas tomem decisões de acordo com suas próprias análises dos dados, sem a necessidade de interferência humana. Em uma época em que dados são coletados através de quase tudo o que fazemos, uma pergunta relevante é: como sabemos que esses dados serão usados com boas intenções?
Em abril deste ano, a Comissão Europeia publicou um guia ético para a inteligência artificial (também conhecida como IA), compartilhando as diretrizes para o desenvolvimento de padrões éticos para essas tecnologias. São padrões que ainda não estão bem definidos, mas podem ser o princípio de novas leis voltadas para esse campo. O documento se chama “ethics guidelines for trustworthy AI”, e estabelece alguns requisitos para uma IA confiável. Falamos sobre alguns deles a seguir:
A supervisão e a intervenção são uma forma de garantir que essas iniciativas não vão diminuir ou limitar a autonomia humana. A definição de IA se relaciona com certa “independência” das máquinas, com o fato de que elas podem se tornar capazes de tomar decisões de maneiras semelhantes a que um humano tomaria. Esse requisito garantiria que essas decisões não se sobreponham à autonomia da população, e que respeitem direitos fundamentais sempre. A tecnologia, nesses moldes, serviria apenas de apoio às ações humanas, estando relacionada sempre a algo já decidido ou definido por alguém.
A robustez técnica e a segurança são componentes cruciais para a confiabilidade da IA. Sistemas robustos são capazes de minimizar riscos não intencionais e prevenir que alguém saia prejudicado. Eles devem estar protegidos de quaisquer vulnerabilidades que possam ser exploradas por adversários, como bancos de dados corrompidos que podem estar guiando o sistema a tomar decisões diferentes. A magnitude dos riscos aos quais determinado sistema está exposto pode variar, mas medidas de segurança devem ser desenvolvidas e testadas de maneira constante.
Outro requisito é o da privacidade, que é uma questão ética porque dados podem ser usados para prejudicar ou discriminar determinados grupos de pessoas. Segundo o relatório, sistemas de IA devem garantir a proteção dos dados durante todo o seu ciclo de vida, incluindo a informação gerada pela interação do usuário com o sistema. Para que haja confiança, o indivíduo deve ser assegurado de que seus dados não serão usados contra ele. Ele deve ter controle sobre o que produz e divulga.
A transparência também, segundo o documento, deve se aplicar a todos os elementos relevantes ao sistema de IA: aos seus dados, ao modelo de negócio que servem e ao próprio sistema. Ela pode prevenir erros futuros. O sistema deve ser rastreável e estar documentado da melhor forma possível. Ele precisa estar explicado de maneira acessível, tanto em relação aos seus processos técnicos quanto a todas as suas ações que afetam humanos. Seus caminhos de tomada de decisão devem ser entendíveis por todos que estão sendo perpassados por eles. Afinal, o usuário tem o direito de conhecer as capacidades e as limitações da tecnologia. Por fim, o sistema deve ser identificável enquanto artificial, jamais se apresentando como humano.
Outro requisito é a diversidade, aliada à não discriminação e à equidade. Ele se baseia na existência e inclusão de dados diversos durante todo o ciclo de vida do sistema de IA. Além do envolvimento de todos os afetados durante o processo, isso assegura que haja acesso e tratamento igualitários. A ideia é evitar um viés injusto, que possa levar à discriminação direta ou indireta de determinados grupos de pessoas. A acessibilidade também é levada em consideração: os sistemas devem ser feitos pensando no usuário, de maneira que todos possam usar seus produtos ou serviços. Pedir feedbacks e assegurar a participação do usuário é benéfico para o desenvolvimento de qualquer tecnologia de IA.
Um exemplo de acessibilidade é o Hugo. Ele é um personagem criado para a plataforma Hand Talk, que usa inteligência artificial para reproduzir textos de sites em linguagem de sinais (Reprodução: Hand Talk/YouTube)
O bem-estar social e ambiental também deve ser levado em consideração no uso ético da inteligência artificial. Os sistemas devem ser sustentáveis e serem usados com responsabilidade ecológica. A ideia é que eles beneficiem a todos os seres humanos, inclusive em gerações futuras. Todas as escolhas que puderem ser menos prejudiciais ao meio-ambiente são válidas. Além disso, o impacto social positivo é essencial: a tecnologia pode ajudar no desenvolvimento das relações interpessoais, além de promover benefícios para a educação, para a saúde e para o entretenimento. Ainda assim, é necessário que haja cuidado nos seus usos quando em paralelo à democracia, especialmente em tomadas de decisão políticas ou em processos eleitorais.
O último ponto que iremos comentar é o de prestação de contas. O princípio desse requisito é garantir que haja responsabilidade no uso dos sistemas de IA. Seja a partir de auditoria, minimização de riscos ou reportação de impactos negativos, é necessário que os mecanismos sejam conhecidos em seus pontos positivos e negativos. Essa informação deve estar acessível, assim como a identificação dos responsáveis por um determinado sistema. É uma maneira de garantir que os usuários sejam protegidos e que companhias ou organizações respondam às consequências em caso de maus usos.
Para conhecer melhor o tema de proteção de dados, acesse nosso post sobre a regulamentação geral de proteção de dados. Continue acessando o blog da Twist para mais informações sobre os novos usos da inteligência artificial. E para descobrir como utilizar essas tecnologias a favor da sua empresa, fale com a gente!