Ética e potencial Bias na lei dos algoritmos

Ética e potencial Bias na lei dos algoritmos

Ética e potencial Bias na lei dos algoritmos

 

Os algoritmos de inteligência artificial (IA) tomam que cada vez mais decisões sobre as nossas vidas diárias operando fora do estado de direito, os algoritmos influênciam as opiniões públicas, os mercados e, nos EUA - as decisões judiciais. No entanto, Portugal não possui quaisquer matéria a respeito: nenhuma estrutura legal na qual os algoritmos se encaixam perfeitamente e também nenhum mecanismo de imposição pode ser encontrado na legislação Portuguesa.

 

É razoável concluir que precisamos de algo nesta matéria.

 

Isso pode ser excessivamente restritivo para o desenvolvimento bem sucedido da IA “Inteligência Artificial”.

 

Embora possam ser necessários desenvolvimentos legislativos apropriados onde existam barreiras reais à adoção da IA ​​(potencialmente, a Isenção de Texto e Mineração de Dados para materiais protegidos por direitos de autor possam necessitar de uma revisão) ou onde haja uma necessidade real de gerir e controlar a implementação ou uso de IA.

 

No Reino Unido não será necessário um novo regime regulatório especificamente para a IA. Algumas leis existentes podem precisar de ajustes e modificações, e pode existir a necessidade de algumas novas leis em circunstâncias específicas (por exemplo, veículos sem condutor), mas não toda uma nova estrutura legal.

 

Na área do “Bias algorítmico”, o "Equality Act 2010"(UK), já oferece proteção considerável para interesses minoritários. A lei aplica-se perfeitamente aos prestadores de serviços que fazem uso de IA.

 

Existirá a necessidade real de um novo regime regulamentar nesta área específica da IA?

 

No mundo digital, as leis tendem a ser negligenciadas e consideradas relativamente sem importância. Maior transparência dos princípios, parâmetros e lógica subjacentes à IA e algoritmos, em particular, pode levar à revisão e escrutínio público. É provável que isso seja muito mais eficaz para pressionar os players digitais a se conformarem com bons princípios. A experiência mostra que uma revisão ruim num site de revisão provavelmente levará a ações quase imediatas de empresas digitais, em comparação com uma resposta lenta e legalista a alegações de violação da lei. Talvez precisemos de maior compulsão legal nesses princípios de transparência.

 

Na verdade, a Proteção de Dados do Reino Unido já dá alguns direitos nessa área - esses direitos podem precisar de mais desenvolvimento.

 

As minhas anotações:

Portugal carece de legislação práticamente na sua totalidade sobre IA - Inteligência Artificial.

 

Eu confesso que me sinto um pouco desconfortável ao discutir questões éticas e sociais. Os meus dias de trabalho também se relacionam com as implicações legais na vertente tecnológia (em agências britânicas). Há já alguns anos, que o meu trabalho envolve principalmente a implementação de sistemas de automação nomeadamente em escritórios e agências - geralmente sistemas de “back office”. Mas, com o crescente envolvimento da Tecnologia nas nossas vidas cotidianas e pessoais, não podemos ignorar as dimensões éticas e sociais, particularmente quando o IA e o ensinamento da máquina trazem a tecnologia para uma interação mais próxima com atividades que consideramos ser intelectuais, e não simplesmente por automação.

 

As questões de preconceito não intencional ou intencional nos algoritmos levam-nos ao “território dos princípios” que devem sustentar a operação das soluções de inteligência artificial. Esta é também uma abordagem “relevante” com a resolução do Parlamento Europeu para um código de conduta ético voluntário sobre robótica para pesquisadores e designers para garantir que eles operam de acordo com padrões legais e éticos e que o design e uso do robô respeitam a dignidade humana. A Comissão da UE também deve considerar a criação de uma agência européia para robótica e inteligência artificial, para fornecer às autoridades públicas conhecimentos técnicos, éticos e regulatórios.

 

Tal como acontece com muitos desenvolvimentos tecnológicos, existe também o momento de desenvolver um novo quadro regulamentar para a IA. Concordo que precisamos de avaliar cuidadosamente o ambiente regulatório que precisa de ser modificado para permitir a introdução da IA e avaliar até que ponto o ambiente regulatório pode precisar de modificações para controlar os aspectos sociais e econômicos indesejáveis ​​da IA.

Eu continuo convencido de que precisamos de um quadro regulamentar específico simplesmente para a IA. 

A IA é simplesmente uma ferramenta de TI sofisticada e deve ser regulamentada nessa base.

 

Penso que é cada vez mais importante especificamente focalizado nas discussões sobre o uso de algoritmos, julgo ser a maior compulsão legal para tornar públicos numa base transparente os parâmetros, lógica e princípios que sustentam as soluções IA (incluindo algoritmos) para que possam receber uma maior revisão e análise pública.

 

Em primeiro lugar - algumas palavras sobre a ideia de um quadro jurídico específico para a IA. No seu nível mais básico, a ideia de uma estrutura regulatória específica para a robótica tem sido debatida na ficção científica há mais de 50 anos,  as 3 ou 4 regras de robótica de Asimov surgiram no início dos anos 50. A ideia era que essas regras seriam programadas em robôs para que governassem as suas próprias atividades.

 

Para recapitular: As leis de Asimov são:

 

  1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano seja ferido.
  2. Um robô deve obedecer a ordens dadas por seres humanos, excepto quando tais ordens entrem em conflito com a Primeira Lei.
  3. Um robô deve proteger a sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei.

 

NB:  Um robô não pode prejudicar a humanidade ou, por inação, permitir que a humanidade sofra danos.

 

Mas as regras de Asimov são - obviamente - dispositivos fictícios. Eles simplesmente não funcionam na prática.

 

Como um robô pode ser programado para identificar todas as formas possíveis em que um humano possa ser prejudicado?

 

Como um robô pode entender e obedecer a todas as ordens humanas – enquanto as pessoas ficam confusas sobre o que as instruções significam?

 

Mais importante ainda, as leis de Asimov são inadequadas porque tentam insistir que os robôs se comportem de certas maneiras, como se fossem pessoas. Na vida real, são os humanos que projetam e usam os robôs que devem ser os sujeitos reais de qualquer lei.

 

Os robôs são simplesmente ferramentas de vários tipos, embora ferramentas muito especiais, e a responsabilidade de garantir que elas se comportem como tal devem pretencer sempre com os seres humanos.

 

A fim de superar tais limitações, o EPSRC-UK Conselho de Pesquisas em Engenharia e Ciência Física identificou 5 Princípios de Robótica em 2010. Estes fornecem uma estrutura útil para a implementação e operação de IA e ensino da máquina.

 

Considerações:

 

  • Os robôs devem ser projetados e operados para cumprir as leis existentes, incluindo privacidade.
  • Os robôs são produtos: assim como outros produtos, eles devem ser projetados para serem seguros e protegidos.
  • Os robôs são artefatos fabricados: a ilusão de emoções e intenções não deve ser usada para explorar utilizadores vulneráveis.
  • Deve ser possível descobrir quem é responsável por qualquer robô.
  • Os robôs não devem ser projetados como armas, exceto por razões de segurança nacional.

 

Na minha opinião, os princípios do EPSRC estabelecem uma boa base para o desenvolvimento de um quadro legal em torno das soluções de IA. Em particular, o seu foco na solução de IA como produtos que funcionam dentro de uma estrutura legal existente leva o debate para longe de conceitos, como a personalidade jurídica para a robótica - que, a meu ver, provavelmente obscurecerá os problemas reais.

 

Identificar princípios projectados para assegurar que a IA continua a ser uma força para o bem social.

 

Eles consistem em três categorias:

 

  1. Questões de pesquisa
  2. Éticas e valores
  3. Problemas de longo prazo

 

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas em todo o mundo. O seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e fortalecer as pessoas nas próximas décadas e séculos.

 

Questões de pesquisa:

 

  1. Objetivo da pesquisa: O objetivo da pesquisa da IA ​​deve ser criar inteligência não direcionada, mas inteligência benéfica.

 

  1. Financiamento para pesquisa: Investimentos em IA devem ser acompanhados de financiamento para pesquisas sobre como garantir seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:

 

Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que quisermos sem o mau funcionamento ou a invasão?

 

Como podemos aumentar a nossa prosperidade por meio da automação, mantendo os recursos e a finalidade das pessoas?

 

Como podemos atualizar os nossos sistemas jurídicos para sermos mais justos e eficientes, para manter o ritmo da IA ​​e para gerir os riscos associados à IA?

 

Com que conjunto de valores a IA deve estar alinhada, e que status legal e ético ela deve ter?

 

  1. Ciência-Política: Deve existir um intercâmbio construtivo e saudável entre os pesquisadores de IA e os formuladores de políticas.

 

  1. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.

 

  1. Prevenção da Raça: Equipas que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.

 

 

Éticas e valores:

 

  1. Segurança: Os sistemas AI devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.

 

  1. Transparência de falha: Se um sistema de IA causar dano, deve ser possível determinar o motivo.

 

  1. Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.

 

  1. Responsabilidade: Designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais do seu uso, uso indevido e ações, com responsabilidade e oportunidade de moldar essas implicações.

 

  1. Alinhamento de valor: Sistemas de IA altamente autônomos devem ser projetados de modo que os seus objetivos e comportamentos possam ser assegurados para alinhar com os valores humanos durante toda a operação.

 

  1. Valores Humanos: Os sistemas de IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural.

 

  1. Privacidade Pessoal: As pessoas devem ter o direito de aceder, gerir e controlar os dados que geram, dado o poder dos sistemas de AI de analisar e utilizar esses dados.

 

  1. Liberdade e Privacidade: A aplicação da IA ​​aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.

 

  1. Benefício compartilhado: tecnologias AI devem beneficiar e capacitar o maior número de pessoas possível.

 

  1. Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.

 

  1. Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas de IA, para realizar os objetivos escolhidos pelo homem.

 

  1. Não-subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.

 

  1. AI corrida ás Armas: Uma corrida armamentista em armas autônomas letais deve ser evitada.

 

 

Problemas de longo prazo:

 

  1. Capacidade Atenção: Não existindo consenso, devemos evitar fortes suposições sobre os limites superiores de futuras capacidades de IA.

 

  1. Importância: A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planeada e administrada com cuidado e recursos adequados.

 

  1. Riscos: Os riscos colocados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planeamento e mitigação proporcionais ao impacto esperado.

 

  1. Auto-Aprimoramento Recursivo: Sistemas de IA projetados para melhorar ou auto-replicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.

 

  1. Bem comum: A super-inteligência deve ser desenvolvida apenas a serviço de ideais éticos amplamente compartilhados, e para o benefício de toda a humanidade e não de um estado ou organização.

 

 

Embora os princípios não se refiram especificamente à conformidade da IA ​​com a estrutura existente, referem-se à compatibilidade com os valores humanos da dignidade humana, direitos, liberdades e diversidade cultural.

 

Então, como poderá o actual quadro legal aplicar-se aos Algoritmos?

Vale a pena olhar para duas áreas. Examinaremos a legislação sobre igualdade e as novas obrigações de transparência no GDPR-UK.

Em primeiro lugar, vou rever rápidamente como o Equality Act 2010 se aplica nestas circunstâncias. A secção 29 do Equality Act aplica-se a:

 

  • prestadores de serviços - pessoas envolvidas na prestação de um serviço, bens ou instalações ao público ou a uma secção do público, quer seja ou não para pagamento. Os prestadores de serviços podem ser indivíduos, empresas ou órgãos públicos. O pagamento não é um pré-requisito - portanto, é claro que o Act se aplica a serviços gratuitos de TI - como mecanismos de pesquisa, mercados on-line e agências de recrutamento on-line.

 

Onde esses serviços utilizam algoritmos na prestação de serviços ao público, esses serviços também estão sujeitos à lei.

 

A secção 29 do Equality Act 2010 (actualizado em  28 Outubro 2018) proíbe a discriminação direta e indireta:

 

  • Discriminação direta - Discriminação direta é quando uma pessoa é tratada menos favoravelmente do que outra pessoa e a razão para o tratamento menos favorável é uma faixa específica de “características protegidas”.

 

  • Discriminação indireta - A discriminação indireta ocorre quando uma política, critério ou prática que é aplicável a todos é mostrada em desvantagem para aqueles que têm uma característica protegida relevante (isto pode ser um grupo de pessoas ou um indivíduo em particular).

 

Uma política, critério ou prática não será considerada discriminação indireta se puder ser demonstrado que se trata de um meio proporcional para alcançar um objetivo legítimo.

 

As características protegidas relevantes cobertas por esta secção são:

 

  • Idade.
  • Incapacidade.
  • Alteração de sexo.
  • Casamento e parceria civil.
  • Raça.
  • Religião ou crença.
  • Sexo.
  • Orientação sexual.

 

Assim, os serviços baseados em algoritmos que têm um Bias deliberado ou não intencional estarão em violação com a “secção. 29”. O facto de uma solução ou algoritmo de IA ter sido a causa da discriminação é irrelevante. Nesse caso, o provedor de serviços será responsável.

Eu considero que esta é a abordagem correcta. O provedor de serviços nessas circunstâncias é responsável pelas consequências do uso do algoritmo. O serviço fornecido pode ter aquirido a solução de AI de terceiros e não ser a causa do Bias. Pode ser que o Bias simplesmente surja de uma solução de IA que interage com a base de dados.

Ou seja, fazer a seguinte pergunta; "o que é que se parace mais com um CEO de sucesso" a resposta resultará inevitavelmente em imagens de homens brancos de classe média.

 

Em segundo lugar, olhando para questões de privacidade e obrigações de transparência dos Princípios Algorítmicos sob a legislação de privacidade.

 

Legitimidade da tomada de decisão automatizada:

As regras automatizadas de tomada de decisão no GDPR são semelhantes às regras equivalentes contidas na diretiva (as propostas para introduzir restrições a qualquer "perfil" não foram, no entanto, incluídas no GDPR final).

 

As regras dizem respeito a decisões:

 

  1. tomada unicamente com base no processamento automatizado; e

 

  1. que produzem efeitos legais ou têm efeitos igualmente significativos.

 

Processamento basicamente automatizado pode ser usado onde o processamento é:

 

  1. necessário para a entrada ou execução de um contrato; ou

 

  1. autorizado pela legislação da UE ou do Estado-Membro aplicável ao responsável pelo tratamento; ou

 

  1. com base no consentimento explícito do indivíduo.

 

No entanto, medidas adequadas para proteger os interesses do indivíduo devem estar em vigor.

 

Existem restrições adicionais à criação de perfis com base em dados sensíveis que necessitam de consentimento explícito ou a serem autorizados pela legislação da UE ou do Estado-Membro, o que se torna necessário por motivos substanciais de interesse público.

 

Transparência de Algoritmos

 

Já existem disposições na Diretiva DP ”Data Protection” (que vão sendo atualizadas no GDPR-UK) que impõem obrigações de transparência no uso de algoritmos, onde a GDPR se encontrar envolvida. Artigo 12.º  e  artigo 15.º).

 

Direitos de acesso aos objectos

 

Assim como os direitos de acesso a dados específicos (confirmação de que os seus dados pessoais estão a ser processados ​​e acesso aos seus dados), o controlador de dados deve fornecer “informações suplementares” sobre o processamento.

Já na Diretiva “Informações Suplementares” inclui qualquer tomada de decisão automatizada regulada (ou seja, decisões tomadas exclusivamente numa base automatizada e ter efeitos legais ou similares; também, tomada de decisão automatizada envolvendo dados sensíveis)  incluindo informações sobre a lógica envolvida e significado e consequências previstas do tratamento para a pessoa em causa.

 

Este é um ponto de partida para a compulsão regulatória sobre os princípios usados ​​no processamento algorítmico. A obrigação não fornece o nível de clareza que seria desejável para que uma maior revisão e escrutínio público seja alcançada no uso da tomada de decisão algorítmica. No momento, os direitos são limitados a situações em que o processamento algorítmico tem alguma forma de efeitos legais ou efeitos significativos semelhantes. Não se aplica a serviços que fornecem serviços apenas de informação.

Na minha opinião, dando maior transparência sobre os princípios que sustentam o uso de algoritmos, maior revisão pública e escrutínio de algoritmos irá ocorrer certamente. Isso resultará em pressão sobre os provedores de serviços para alterar esses algoritmos onde eles causam problemas.

 

Eu, no mundo digital, considero essa revisão e comentários públicos como sendo provavelmente muito mais eficazes no controle do uso de algoritmos do que remédios puramente legais.

 

Os provedores de serviços respondem a comentários públicos, enquanto podem ser bastante resistentes à compulsão legal.

 

 

Conclusão 

Não nos deixemos levar pela perspectiva possivelmente excitante de que alguma nova forma de "status legal" seja concedida aos robôs. Vamos analisar com cuidado como o quadro jurídico existente se aplica a esses desenvolvimentos de maneira pragmática e obstinada. Sim, haverá a necessidade de desenvolver leis para acomodar novas tecnologias - sempre existiu tal relação, mas vamos tentar fazer-lo de uma forma incremental e sensata, consistente e eficaz na era digital.

 

RJCS

 

Referências:

House of Commons - Algorithms in decision-making...

Equality Act 2010...  Secção 29 (actualizado em 28 de Outubro 2018)

EPSRC...

GDPR-UK, Artigo 12.º  e  artigo 15.º...