jusbrasil.com.br
16 de Setembro de 2019

Top 5 questões legais inerentes a IA e o aprendizado de máquina

Natália Oliveira, Advogado
Publicado por Natália Oliveira
ano passado

Me deparei com um texto do Traverse Legal enquanto pesquisava algumas questões sobre tecnologia, direito, proteção de dados e afins, e achei interessante compartilhar, em tradução livre. Para quem não sabe, IA é sigla para inteligência artificial, e aprendizado de máquina é, basicamente, o processo de refinamento de decisão de um robô baseado em dados, como se estivesse “aprendendo”. Deixo aqui o texto para vocês.


15 de novembro de 2017, por Brian Hall

Em tempos modernos a vida é muito mais sobre “acompanhar os Jetsons”. A tecnologia infiltrou quase todos os aspectos da vida a ponto de um celular sem bateria parecer um braço perdido. Com os desenvolvimentos em inteligência artificial e o aprendizado de máquina dispositivos sem bateria começarão a parecer como companheiros falecidos. A IA e o aprendizado de máquina se referem ao software que pode ajustar as reações do seu código a inputs com o passar dos tempos, enquanto “aprendem” mais informações que recebem desses inputs. Da Siri até carros inteligentes e propagandas online, a inteligência artificial atualmente afeta nossas vidas. Todo o rol de ônus e riscos que crescem com o uso dessas tecnologias ainda não foi completamente explorado. Entretanto, existem pelo menos três questões legais inerentes a IA e o aprendizado de máquina.

  1. IA computa mais rápido que o Congresso: a tecnologia está sendo desenvolvida no ritmo mais acelerado desde a Revolução Industrial, mais rápido que o direito consegue acompanhar. Então quando uma questão legal é levantada, o que tem sido frequente, são casos sem precedentes legais. Advogados que possuem um caso de IA estarão navegando em território inexplorado, sem mapa, e sustentando casos frente a juízes que talvez nem compreendam a tecnologia.

  2. De quem é a culpa? Se um acidente envolve IA, tentar achar a parte responsável é como tentar jogar uma versão de ficção científica do jogo “Dica”. Um carro autônomo atropela um pedestre: quem é o culpado? O programador no escritório com o código fonte? O dono do carro, que não o está guiando? O laboratório de manufatura com os protocolos de teste?

  3. Quando o artificial supera a inteligência. A IA com frequência tem de identificar objetos, como carros ou pessoas. Entretanto, como depende de câmeras e códigos, coisas como contraste, cor e densidade de imagens afetam o seu “pensamento” mais do que afeta humanos. Uma pessoa não estaria inclinada a errar um caminhão branco em contraste com um céu bem iluminado. Um ser humano não confundiria um padrão de pontos ou linhas com uma estrela do mar. IA também pode refletir os vieses do desenvolvedor, como visto em diversos softwares com tendências racistas.

  4. Humanizando robôs. Ao passo que a tecnologia é desenvolvida, a IA fica mais próxima de uma real consciência. Os Estados Unidos já garantiu direitos e deveres para entidades não-humanas, ou seja, corporações; não é descabido pensar que à robôs e máquinas utilizando IA não será concedido o mesmo. O Facebook já criou IA suficientemente sofisticada para desenvolver a própria língua, não-humana. Os direitos civis dessas máquinas foram violados quando o Facebook decidiu desligá-las? Se uma IA comete um crime pode o software ser culpado? A Suíça passou por esse mesmo problema quando um robô comprou substâncias ilícitas online.

  5. Privacidade não existe mais: a IA já rastreia e prevê as preferências de compra, preferências políticas e a localização das pessoas. Os dados acumulados e compartilhados entre essas tecnologias já criou diversas controvérsias na área jurídica. Entretanto, IA é começando a adentrar temas ainda mais controversos, como prever sexualidade e propensão a cometer um crime. Essas predições serão capazes de ser usadas no tribunal? Ou a IA serve de expert para um exame conjunto para determinar validade de suas opiniões?

Em se tratando de IA e aprendizado de máquina existem mais questões legais do que respostas. Mas não se preocupe; robôs podem ter respostas legais para nós em breve. Quando tiverem, estarão prontos para escutar? O direito, incluindo advogados de IA, é uma área a vivenciar disrupção pela IA.


Algumas dessas indagações já são reais; já existem robôs advogados sendo usados no mundo. Quanto aos erros da máquina, como o exemplo do caminhão, também acontecem com seres humanos; um motorista sonolento, por exemplo. Parece-me que, apesar de também apresentar erros (em decorrência da nossa manipulação!) a taxa de erro é menor que a nossa. Como lidar? O que você acha desse assunto?


Este artigo foi útil? Recomenda a leitura, clicando lá em cima, e comenta ali embaixo suas ideias!

Photo on Pixabay

8 Comentários

Faça um comentário construtivo para esse documento.

Não use muitas letras maiúsculas, isso denota "GRITAR" ;)

Excelentes reflexões sobre o tema.

Questões morais como essas, serão cada vez mais discutidas com o avanço da IA.

Nós, profissionais do direito, temos que estar sempre atentos aos avanços proporcionados por essas tecnologias, vez que todas essas discussões nos afetam diretamente, seja em nossa atuação profissional, seja pela organização da sociedade. continuar lendo

Com certeza, Eduardo! Ainda está caminhando lentamente aqui no Brasil, mas em breve essas questões se tornarão corriqueiras. continuar lendo

Interessante artigo.

Só uma correção, o facebook não desligou os computadores que começaram a se comunicar em língua própria, apenas mudaram os parâmetros da pesquisa para que eles usassem o inglês.

Embora o texto traga a base americana de common law (precedentes) no Brasil (positivista) não será diferente, vez que muitas questões ficarão no limbo principiológico até ter leis regulando o setor o que, quase sempre, é uma tragicomédia como foi o caso do Uber. continuar lendo

Com relação ao item 2 penso que deveria haver responsabilidade objetiva, apesar de desconhecer fundamento legal para tanto. Funcionaria como na construção civil. Ainda que não haja erro de projeto, se danificou a casa do vizinho deve indenizar. Isso é claro, não excluiria a possibilidade do usuário de IA buscar ressarcimento com as partes anteriores da cadeia.

Quanto a questões três e cinco aí existe um perigo maior. Se a IA é pura estatística e matemática existe grandes chances que ela discrimine com fundamentos válidos estatisticamente, mas moralmente indefensáveis. Se por exemplo órfãos são mais propensos a depressão e deixarmos a IA calcular livremente os custos de um seguro, o risco de que essa pessoa seja discriminada é grande. Imagine se a IA selecionar candidatos a um emprego, e outros assuntos importantes... continuar lendo

Sentiremos saudade dos cursos de datilografia. Tempos áureos onde a TV era em branco e preto e desligava as 22 horas, existia os bondes elétricos, a carrocinha de leite, a leitura da Cartilha Sodré, a caneta de pena e o tinteiro nas carteiras, o lápis de duas cores e tantas outras maravilhas, lembranças de um tempo feliz.

Obs.´. Para os mais jovens cumpre-me informar que eram escolas que ensinavam como escrever com uma maquina mecânica que ao apertar uma tecla essa levantava e batia em uma fita entintada imprimindo na folha de papel o carácter em alto relevo que estava gravado nela. Para entender melhor seria necessário uma passadinha no museu. continuar lendo