Quem tem medo da Inteligência Artificial?

inteligencia artificial

A Inteligência Artificial (IA) não é uma ciência nova. Os primeiros estudos foram feitos em 1956, em uma conferência no Dartmouth College, com a discussão de hipóteses [1]. A idéia era encontrar formas de fazer o computador (hardware) atuar a partir de um programa (software) com funções de aprendizado, semelhante a um ser humano. Um programa tradicional não tem estas funções. O desenvolvimento prosseguiu nos anos seguintes com a construção de robôs, programas de computador e testes em várias situações. Uma das demonstrações mais conhecidas foi em 1987, um computador da IBM programado com IA para jogar xadrez, conhecido como Deep Blue. Ele derrotou o jogador mais bem classificado na época, Garry Kasparov. No passado, em função da capacidade dos equipamentos existentes, a programação de IA exigia um poder computacional que estava disponível apenas em sistemas muito caros ou com aplicações limitadas. Hoje, o estágio que a tecnologia de computadores e de IA atingiu é suficiente para executar tarefas práticas em um ambiente industrial, comercial e até doméstico. E a um custo que permite sua aplicação em qualquer área onde seja necessário, até mesmo em sistemas de pequeno porte. Exemplos podem ser vistos em várias áreas. Na aŕea doméstica, assistentes de voz. Na internet, recomendação de conteúdo. Na indústria, sistemas de reconhecimento de falhas em linhas de produção. Na medicina, sistemas de exame de imagens para detecção de doenças. Na agricultura, sistemas de reconhecimento de pragas em plantações. No comércio, sistemas de detecção de pessoas e análise de sentimento. Na área de segurança, reconhecimento facial para identificação de pessoas. E é nessas duas últimas aplicações que residem as principais queixas dos criticos da IA. Algumas aplicações com resultados diferentes do esperado, com necessidade de aperfeiçoamento, levaram a uma generalização dos problemas e a uma condenação precoce da tecnologia por parte de jornalistas, intelectuais, políticos e formadores de opinião. Sem conhecer a fundo o processo de desenvolvimento das tecnologias em geral, passaram a criticar a tecnologia de IA como se fosse uma tecnologia com falhas irreparáveis, além de fazerem um paralelo das possibilidades futuras dela com seus medos, provenientes de outras situações já conhecidas, por exemplo o personagem “Grande Irmão” (“Big Brother”), do romance “1984” de George Orwell, ou a espionagem governamental que hoje é feita em regimes totalitários. Como se a IA fosse apenas uma arma, para ser utilizada nas mãos de pessoas inescrupulosas e regimes políticos repressores.

Existe fundamento para essa conclusão? Para procurar a resposta, é importante conhecer a tecnologia de Inteligência Artificial. Antes da IA, os computadores tinham a sua função definida pelo programa (software) carregado em sua memória e que era executado pelo seu processador (hardware). Um código, escrito por um programador. Por exemplo, se o programador definia uma função do tipo “calcule 2 vezes x e some 3” (2x+3), o computador só poderia receber um valor numérico “x” válido e iria dar a resposta ou continuar com o resultado para a próxima função. Para cada x, existe apenas uma resposta. Se x fosse igual a 1, a resposta só poderia ser 5. Se fosse outra a resposta, algo estaria errado. Esse processo é chamado de determinístico. Da mesma forma, o programa poderia ter uma expressão do tipo 2x+3=7. Nesse caso, o programa iria admitir como número válido somente se recebesse um x igual a 2. Esse é o caso de um programa que verifica uma senha ou se a temperatura de uma geladeira está com o valor correto, por exemplo. No caso da IA, não é o programador quem define todos os valores a serem utilizados durante a execução do programa. Os valores são definidos em um processo de aprendizado, o prendizado de máquina. O programa tem funções do tipo w*x+s, onde “w” é o peso (weight) e “s” é o viés (set-up). Os valores de “w” e “s” são definidos pelo sistema de IA, durante o processo de aprendizado. Considerando cada função dessas agindo como se fosse o neurônio de um cérebro, onde inúmeras funções desse tipo interagem de forma matricial (também conhecida como “rede neural”), o resultado final a ser obtido depende dessa interação. Para definir os valores de “w” e “s” em cada função desse conjunto, o processo de aprendizado consiste em introduzir uma determinada quantidade de dados no sistema, de modo que esses valores vão sendo ajustados a cada novo dado que as funções recebem. Por exemplo, se o objetivo do sistema é identificar frutas pela sua imagem, uma grande quantidade de imagens com as frutas que se quer analisar, com a respectiva identificação de seu tipo (“label”), devem ser processadas pelo programa durante o aprendizado. Posteriormente, uma nova amostragem de imagens deve ser utilizada para testar o aprendizado e eventualmente verificar a necessidade de melhorar a resposta do sistema. No fim desse processo, temos os valores numéricos de “w” e “s” que serão usados na operação do sistema, com cada função tendo recebido seus valores específicos. Esse é um dos processos possíveis, o aprendizado supervisionado. A partir do momento em que os parâmetros estão definidos e testados, imagens de frutas obtidas durante o processo real de operação serão apresentadas ao sistema e ele dará como resposta da análise um valor, normalmente em porcentagem, informado qual fruta está em uma determinada imagem. Por exemplo, os “labels” de interesse poderiam ser “maçã”, “pera”, “laranja” e “banana”. Poderíamos ter como resposta “80% maçã, 40% pera, 20% laranja, 1% banana”. A resposta não é determinística, é estatística. O programador ou o usuário deve decidir qual é o limite mínimo de acerto aceitável, para definir a resposta. Nesse caso, por exemplo, ele pode aceitar que “80% maçã” define a fruta na imagem como “maçã”. Ou pode entender que “80% maçã” é pouco e rejeitar a análise. Também pode decidir refazer o processo de aprendizado, para atingir um reconhecimento de “98% maçã”. Também é possível fazer um outro tipo de aprendizado, onde as imagens apresentadas são as reais do processo durante a operação e a máquina “aprende fazendo”, sem depender diretamente do programador, num processo não-supervisionado. Aqui, o processo foi apresentado de uma forma simplificada, para ser didático. Esse tipo de processamento é o responsável pelo grande desenvolvimento que a IA atingiu.

Considerando que Inteligência Artificial é um processo matemático estatístico, executado em um computador, sob controle dos programadores, aparentemente não existiria motivo para ter medo da tecnologia. Mas é o que aconteceu em várias ocasiões, onde figuras importantes no cenário internacional divulgaram receios quanto ao uso da IA, como o empresário Elon Musk (apesar de ele investir em IA e ser membro da OpenAI) [2] e o cientista Stephen Hawking (apesar de ele ter visto grandes possibilidades para a IA) [3]. Jornalistas, intelectuais, políticos, formadores de opinião e ativistas, também estão escrevendo e divulgando suas opiniões nessa mesma linha. Notícias citando casos de problemas associados à IA são citados com frequência, como um caso que ficou famoso, da Microsoft [4]. A Microsoft criou um sistema de conversação baseado em IA (o chatbot “Tay”) e o conectou a uma rede social (Twitter). O objetivo do sistema era interagir por texto com os membros dessa rede, como se fosse um ser humano. Ele usava aquele sistema de aprendizado nãosupervisionado (“aprender fazendo”) e foi aprendendo com os próprios usuários do sistema. Após algumas horas, o sistema já estava reagindo como um ser humano radical (racista, sexista e xenófobo), com “opiniões” polêmicas a respeito de vários assuntos e criticando até a própria Microsoft. A Microsoft tirou o sistema da rede, para evitar problemas. Esse fato foi usado como um argumento contra a IA. Mas se o sistema agiu dessa forma, significa que ele funcionou como deveria, aprendeu com a rede social, exatamente como ela é. Apenas precisaria ser aperfeiçoado, para trabalhar com as opiniões em outros termos, para não se radicalizar. Seria da mesma forma que fazemos quando ensinamos seres humanos. Ou seja, o erro não estava na tecnologia de IA e sim nos parâmetros de aprendizado (os “w” e “s”), que deveriam ser ajustados, e no tratamento da informação. Isso não é um problema político ou ideológico, é um problema de engenharia que pode ser resolvido. Outra grande fonte de polêmicas e questionamentos são os sistemas de imagem, usados principalmente no comércio e na área de segurança. Sistemas de detecção de pessoas, análise de sentimento e reconhecimento facial para identificação de pessoas. O principal questionamento é que esses sistemas infringem a Lei Geral de Proteção de Dados (LGPD) do Brasil. O questionamento também ocorre em outros países, por exemplo em países da Europa, onde existe uma lei (GDPR), que inspirou a nossa lei. Ela envolve questões técnicas e legais e o objetivo aqui é apenas técnico, motivo pelo qual a lei não será analisada. Um princípio da lei é que dados anonimizados (onde não se publica dados que possam identificar e individualizar uma pessoa) podem ser usados nos sistemas. Mas, na prática, existe um excesso de medo quanto ao mau uso desses dados, sem a devida análise de cada caso. Sistemas de detecção de pessoas podem ser simplesmente a contagem de pessoas, não envolvendo nenhum dado pessoal. A análise de sentimento no comércio é simplesmente analisar se as pessoas em um ambiente estão interessada em um produto. Análise de idade e de gênero é para definir o perfil do consumidor. Não interessa o nome dessa pessoa. No caso do reconhecimento facial, seria apenas para identificar que um cliente entrou na loja e tratá-lo como tal. Evidentemente, esse cliente teria concordado anteriormente com isso, fornecendo seus dados em troca desse tratamento especial. Na área da segurança, a polêmica é maior porque as pessoas teriam medo de ter a sua identificação usada para propósitos excusos. Mas hoje, já temos que nos identificar em todos os lugares. Para entrar em uma empresa ou em um edifício comercial ou residencial, por exemplo. Independente da IA, antes dela existir. Se um funcionário humano pode identificar você, pedir seus documentos, registrar sua presença, por que um sistema de IA não pode? E os dados pessoais coletados sempre tiveram que ser preservados, tanto no caso do funcionário humano como no caso da IA. Novamente, aqui não será analisada a questão legal. Outras questões polêmicas são a identificação de gênero e a identificação de raça. Essas questões estão hoje em discussão na sociedade. Se tornaram um problema político e
radicalizado. Sistemas de IA são frequentemente acusados de serem parciais ou errôneos na identificação de pessoas, em função de gênero e raça. Aqui também se trata de questões que não dependem de IA, já existiam antes da IA existir. Não cabe a ela definir perfeitamente gênero e raça,
as pessoas também tem essa dificuldade. Inclusive porque aqui, no Brasil, essas características dependem da autodeclaração, é a própria pessoa que define de que forma ela quer ser identificada. E se não pudermos usar a identificação pessoal no sistema, como saber quem essa pessoa é o que ela se autodeclarou? Mas existe uma possibilidade de solução. Para o aprendizado na IA, dependemos de muitos dados, quanto mais melhor. Se devemos identificar pessoas com diversidade, então será necessário o acesso a mais dados com essa característica. E um consenso sobre como eles deverão ser classificados (os “labels”). Essa é a solução para melhoramos os parâmetros de aprendizado (os “w” e “s”), o que vai levar a um reconhecimento mais eficiente. E sempre lembrando que a resposta não é determinística, é estatística.

Sempre que se divulga que um sistema está sendo implementado, a polêmica se instala e o Poder Judiciário acaba envolvido. Vários casos aconteceram no Brasil. Um que está em discussão há vários anos é o sistema do Metrô de São Paulo [5][6], desde 2020. O Metrô alega o uso para questões operacionais, [6] “permitindo a identificação e rastreamento de objetos suspeitos, crianças desacompanhadas, além da detecção da invasão de áreas, como pessoas que entram na via e outras situações que colocam em risco o passageiro”. A questão tem aspectos legais a serem discutidos por especialistas, mas mobiliza jornalistas e formadores de opinião para que se proíba o uso do sistema. Fazem afirmações do tipo [5] “A tecnologia de reconhecimento facial já é problemática por si só”. Nessas discussões, o que está na base do problema é o medo do mau uso, invasão da privacidade e a possibilidade de violação da LGPD. Incluindo pedido de indenização por danos morais coletivos já causados aos passageiros. Uma das questões que são colocadas é que esse sistema vai ser usado para perseguir pobres, negros, transexuais e imigrantes. Mais uma vez, se trata de questões que não dependem de IA, já existiam antes da IA existir. No caso do reconhecimento feito por humanos, [6] “83% dos presos injustamente por reconhecimento fotográfico no Brasil são negros”. A decisão sobre o que fazer com a informação, seja um reconhecimento por humanos ou por IA, é (ou deveria ser) feita com cautela por humanos. Outra polêmica que foi bastante divulgada e que ocorreu em 2015 foi um sistema do Google, que identificava negros como macacos (gorilas e chimpanzés) [7]. Foi tratado como um caso típico de preconceito dos programadores contra os negros, onde “os algoritmos herdam vieses e preconceitos presentes nas bases de dados (alimentadas por seres humanos) e nas mãos dos programadores que os desenvolvem”. O Flickr enfrentou um problema semelhante, ao etiquetar negros como macacos. Se os programadores dessas empresas eram ou não preconceituosos, não será investigado aqui. Este é mais um caso onde o que ocorre é uma falha de programação, onde não se forneceu (seja qual for o motivo) ao sistema um conjunto de imagens (dados), que fizesse com que os parâmetros de aprendizado (os “w” e “s”) assumissem um valor capaz de fazer o sistema reconhecer e classificar também os negros como humanos. Teríamos como esposta, por exemplo, “90% homem”, “30% mulher”, e não um animal. Ou também uma identificação de um humano por raça [7], como a do Facebook. A IA é apenas um sistema que vai fornecer uma informação. Se o sistema responde com erros, é porque não está funcionando corretamente e, portanto, precisa ser corrigido. É o que é feito em qualquer sistema, em qualquer projeto.

Existem também alguns especialistas divulgando suas opiniões, procupados com o uso da Inteligência Artificial. No caso dos especialistas, alguns tem divulgado estudos que, na opinião deles, mostraria erros e problemas associados à tecnologia de IA. Com os formadores de opinião, não é possível discutir. Mas, com esses estudos em mãos, é possível discutir, analisar e aprender. Um desses estudos é da UNESCO, o documento Preliminary study on the Ethics of Artificial Intelligence [8], onde são apresentados princípios relativos ao papel da IA em cada área do conhecimento. No ítem II.2.5.50 é tratada a questão da tomada de decisão dirigida por IA, que ela deve ser tratada com cautela, que ela não é necessariamente justa, precisa ou apropriada. O ideal seria que a decisão fosse a mesma que uma pessoa tomaria, caso ela fosse capaz de processar todos os dados. No ítem II.2.5.51 também é tratada a questão da tomada de decisão, afirmando que mesmo tendo um humano, participando do processo junto com um sistema de IA, isto pode não ser suficiente para uma boa decisão, em função da capacidade humana de interpretar se a resposta estocástica da máquina preenche os requisitos. E também, se com a rápida evolução dos dados, a IA seria capaz de tomar decisões em ambientes complexos como monitoramento ambiental, previsão de desastres e planejamento em campos de batalha. No ítem II.3.54, é tratada a questão das implicações na cultura e na linguagem dos algorítmos e a questão da diversidade cultural, nas traduções por máquina. No ítem II.3.3.63 e 64 essa questão é retomada, com o problema da perda do significado das palavras e do contexto em uma tradução por IA, devido às conotações culturais. No ítem II.5.84 é tratada a questão de decisões assistidas por IA que envolvem a morte de pessoas, em armas autônomas, e a questão ética. No ítem II.5.89 é mencionada a questão do reconhecimento facial e as implicações éticas. No ítem II.6.90, é dito que os conjuntos de dados refletem o mundo real e podem trazer discriminações. É citada uma ferramenta de contratação de empregados na Amazon, que priorizava homens. No ítem III.1.99 e 100, é mostrado que já existem diversas iniciativas governamentais e de organizações para recomendar princípios éticos em IA. E finalmente, no ítem III.2.107 são listados 12 critérios para uma IA ética, como inclusão, transparência, responsabilidade, democracia, governança, etc. Nesse estudo da UNESCO, que consolida muitos outros estudos e grupos de trabalho, é possível ver várias considerações e critérios úteis para serem levados em conta na hora de programar sistemas de IA, de forma a evitar aquelas falhas que foram expostas. É uma contribuição relevante.

inteligência Artificial
Quem tem medo da Inteligência Artificial?

Em função dos problemas e dos medos relatados, a IA deveria ser banida das aplicações práticas e ficar restrita apenas às atividades acadêmicas de pesquisa, até que estivesse desenvolvida o suficiente para ficar 100% livre de erros? Talvez uma análise dos problemas que enfrentamos em outras tecnologias nos ajude a responder essa questão. A tecnologia aeronáutica é uma delas. As aplicações de IA são relativamente novas, mas a aeronáutica já tem um século. Na aeronáutica, as ocorrências são classificados como acidentes e incidentes. Acidentes são aqueles que lesionam pessoas, danificam a estrutura do avião ou causam seu desaparecimento. E incidentes são ocorrências que não causam acidentes mas que afetam a segurança. Esses princípios fazem parte das Normas de Sistema do Comando da Aeronáutica (NSCA). Hoje, todos temos a sensação de muita segurança ao viajar de avião. Mas não foi sempre assim. No início, os aviões eram inseguros e se acidentavam com bastante frequência. Mesmo em tempos mais recentes, tivemos acidentes bastante sérios [9]. Excluindo os atentados de 11 de setembro nos EUA (que não foram acidentes), o acidente que causou mais vítimas até hoje ocorreu em 1977, em Teneriffe, Ilhas Canárias. Um Boeing 747-100 da Pan Am colidiu em solo com um 747-200 da KLM e matou 583 passageiros. O segundo maior ocorreu em 1985, no Japão. Um Boeing 747-146SR da JAL sofreu uma falha estrutural em voo e matou 520 passageiros. O terceiro maior acidente ocorreu em 1996 na Índia e envolveu a colisão em voo de um Boeing 747 com um avião Ilyushin , matando 349 passageiros. Se estivéssemos no mundo dos formadores de opinião de hoje, certamente eles estariam dizendo que o Boeing 747 é muito perigoso, porque mata muita gente e é o responsável pelos maiores acidentes do mundo. Deveria ser banido. Então, como explicar que o avião do presidente dos EUA (Air Force One) é um Boeing 747? Estaria ele em risco? O 747 era, até recentemente, o avião com maior capacidade em número de passageiros. Portanto, quando um deles sofre um acidente, vai ser maior o número de mortes nele do que em outros aviões. Um formador de opinião perguntaria então qual é o modelo de avião comercial com mais acidentes e mortes, para pedir seu banimento e não entrar nunca mais em um deles. Quando se analisa um problema, a análise estatística é a ferramenta mais indicada. Conforme o relatório de acidentes anual da Boeing de 2021 (referente ao período 1959 a 2020) [10], não existe uma resposta apenas. Se o critério for a perda de fuselagem com vítimas fatais por milhão de decolagens, seria o Boeing 737 MAX (com 7,12 nesse indicador). Esse é o modelo mais atual, mas ainda teve poucos voos (muito menos de 1 milhão de decolagens) e 2 acidentes, o que explica o indicador maior. Está com os voos suspensos, em função dessas 2 ocorrências, para avaliação técnica. Então, o problema é com os Boeing 737? Não, eles são os aviões mais vendidos da história (desde 1968) e com maior número de voos. Os modelos 737 mais antigos tem um indicador de acidentes (737-100/-200 com 0,91) que foi melhorando nos modelos 737 posteriores (737-300/-400/-500 com 0,25) e ainda melhores em modelos mais recentes (737- 600/-700/-800/-900 com 0,09). A fabricante concorrente Airbus iniciou com o modelo A310 em 1974, que também tem um indicador mais alto (A310 com 1,89). Posteriormente, lançou o A320 (em 1988) e outros modelos nos anos seguintes, A321, A319 e A318 (A320/321/319/318 com 0,09). Os concorrentes diretos da Boeing para esses modelos da Airbus tem indicadores de acidentes equivalentes (737-600/-700/-800/-900 com 0,09). Os indicadores são melhores para modelos mais recentes das duas fabricantes, todos os modelos das aeronaves vão tendo melhorias ao longo do tempo. Podemos ver esses modelos de aviões operando em todos os grandes aeroportos do mundo. Se considerarmos o indicador para todas as aeronaves (de todos os fabricantes) que não estão mais em serviço (com 4,41), também é possível ver a melhora nos indicadores. Da mesma forma, os Boeing 747 (o 747-100 foi lançado em 1970) citados anteriormente também iniciaram com indicadores mais altos (747-100/-200/-300/SP com 1,46). O 747-400 (lançado em 2007) é o modelo de 747 mais vendido e usado atualmente, e também mostra uma redução no indicador (747-400 com 0,57). O fato é que em 1959 (esse relatório só apresenta jatos comerciais), a taxa de acidentes fatais por milhão de decolagens era próxima de 40 nos EUA e 30 no resto do mundo. Em 2019 (antes da redução de voos devido à pandemia) era próxima de 0,1 em ambas as áreas. Dez anos antes, estavam próximas de 0,4. Mesmo em anos recentes, há uma oscilação no indicador mas existiu uma melhoria. Ou seja, uma queda no índice entre 300 e 400 vezes, nesse período de 60 anos. Considerando o Relatório de Segurança de 2022 da International Air Transport Association (IATA [11], em 2021 tivemos um risco de fatalidade de 0,23 em cada acidente com mortes por milhão de voos. Na média, uma pessoa teria que voar todo dia por 10.078 anos para se envolver em um acidente com ao menos 1 caso fatal, ou 12.151 anos para se envolver em um acidente 100% fatal. Foram 1,01 acidentes por milhão de voos. Mostrando de outra forma os dados, em 2021 tivemos
25,7 milhões de voos, 26 acidentes, sendo 7 fatais com 121 mortes. Um formador de opinião ficaria satisfeito? Evidentemente, um formador de opinião diria que nenhuma morte é aceitável. E ele está certo. Mas isso significa banir uma tecnologia até que essa meta seja atingida? Não foi o que fez a indústria aeronáutica e os órgãos reguladores. E tivemos todos os benfícios do transporte aéreo durante um século, mesmo com os eventuais acidentes. A principal questão aqui é que todos os acidentes aéreos foram investigados, por equipes de técnicos e engenheiros altamente especializados. O objetivo sempre foi encontrar as causas dos acidentes, propor soluções para corrigir as falhas e evitar novos acidentes causados pelas mesmas falhas. E, somado a isso, a contínua evolução da tecnologia com melhores processos, métodos e materiais, reduziu os indicadores de acidentes e resultou na segurança que temos hoje. Nenhuma tecnologia nasceu perfeita e à prova de falhas. IA não é diferente e está em evolução.

Existem muitos casos de sucesso da IA em operação na indústria, medicina, finanças, ciência, logística, etc. São aplicações que não chegaram ao conhecimento do grande público. O foco está em determinadas áreas, que tiveram suas falhas expostas. Entre os casos nessas áreas mais visadas, também podem ser citados casos de sucesso. Um caso é o sistema de busca por pessoas desaparecidas, utilizando técnicas de IA [12]. “Em 2020, 172 pessoas desapareceram por dia, em média, no território brasileiro”. São “crianças, adultos, homens, mulheres, não-binárias, de diferentes etnias”. Um aplicativo, desenvolvido pela empresa brasileira Multiconnect em parceria com a Microsoft (dentro da iniciativa mundial A.I. for Good) e com ONGs que procuram desaparecidos, é capaz de identificar até crianças que desapareceram no passado e hoje estão adultas. O sistema calcula a distância entre 27 pontos do rosto. O sistema ainda não pode usar dados de delegacias de polícia e hospitais. Quando um reconhecimento é feito, as autoridades são
acionadas. Uma das ONGs utiliza também o exame de DNA. Outro caso é um sistema feito pela startup brasileira CyberLabs [13]. Ela fez um sistema de reconhecimento facial que “apresentou um índice de 99,84% na detecção de rostos de pessoas negras, enquanto outras soluções que, inclusive, já são utilizadas no mercado, apresentam um total que varia de 75,8% a 87,5%”. Para comparação (conforme já mencionado), “83% dos presos injustamente por reconhecimento fotográfico no Brasil são negros” [14], conforme um estudo feito pelo Condege, entidade que reúne defensores públicos de todo o Brasil. Esse reconhecimento hoje é feito usando os “catálogos de suspeitos” em delegacias no Brasil. Em muitos casos, o reconhecimento por fotografia acaba sendo a única prova na hora de apontar um possível criminoso. Mais uma situação onde o problema já existia, antes da IA. É um problema de processo, criado por humanos, não de tecnologia. Mas o uso da tecnologia de IA com um nível de acerto de 99,84%, submetido à decisão humana e a um trabalho de investigação humano, como sugere o estudo da UNESCO, pode trazer uma solução para essa situação. Evitando o alto índice de reconhecimentos errados que temos hoje e passando a ter valores muito baixos, como aconteceu com os acidentes aeronáuticos, onde se desenvolveram processos e tecnologias para remover as falhas. Essa ferramenta de reconhecimento passou por três anos de desenvolvimento antes de chegar ao mercado, trabalhando com características de cor da pele, traços e formato dos olhos. “É fornecida de maneira gratuita para entidades públicas e já está implementada no Centro de Operações Rio, instalação da prefeitura da capital carioca, e na Santa Casa de Itajubá, em Minas Gerais”. Uma aplicação, entre muitas na área acadêmica, foi desenvolvida na USP de São Carlos [15]. Com métodos que são “capazes de identificar possíveis suspeitos mesmo que eles estejam mais velhos, em poses e locais variados, utilizando disfarces, acessórios, como óculos de sol, e até mesmo em movimento”, em todos os tipos de ambiente. Os algoritmos fazem um tratamento da imagem, localizam as posições dos olhos e do nariz e criam uma “assinatura” da pessoa. Os índices de acerto chegaram a 96,8%. Essas soluções mostram que é perfeitamente possível desenvolver sistemas seguros de IA, sempre estando atento à questão de que se trata de um sistema com respostas estatísticas e que precisa estar sujeito ao critério humano no processo, como sugere o estudo da UNESCO. Nos acidentes aeronáuticos, quase metade das causas de acidente está relacionada com a tripulação, motivo pelo qual treinamento é fundamental para um bom desempenho humano. Isso demonstra que também é necessário treinar no caso da IA para evitar o viés dos programadores, para que o critério humano não seja o fator que vai provocar as falhas no sistema. As investigações de acidentes aeronáuticos levou, além do desenvolvimento técnico, ao desenvolvimento de regulamentos e leis que trouxeram mais segurança na operação dos voos. Regulamentos e leis também podem ser aplicados com sucesso em IA, se forem criados com os mesmos critérios e objetivos. Com esses cuidados ao construir os sistemas, o resultado dessa tecnologia pode ser a solução para evitar (ou minimizar) os problemas que já estamos enfrentando. Diminui muito a possibilidade de que pessoas querendo banir a IA tenham argumentos para isso. E diminui muito a possibilidade de termos medo dessa tecnologia, em qualquer área onde ela for aplicada.

Esse texto foi escrito por Emilio Teixeira da Silva Júnior.

Referências sobre o texto de Inteligência Artificial publicado acima:

(Verificadas em 21/04/2022)
[1] Henry B., Howard S. 2014. Entendendo a Inteligência Artificial. São Paulo, LeYa.
[2] Elon Musk avisa que robôs humanoides da Tesla estão em desenvolvimento:
https://tecnoblog.net/noticias/2021/08/20/elon-musk-avisa-que-robos-humanoides-da-tesla-estaoem-desenvolvimento/
[3] Stephen Hawking faz alerta sobre Inteligência Artificial : https://exame.com/tecnologia/stephenhawking-faz-alerta-sobre-inteligencia-artificial/
[4] O robô racista, sexista e xenófobo da Microsoft acaba silenciado:
https://brasil.elpais.com/brasil/2016/03/24/tecnologia/1458855274_096966.html
[5] Metrô terá reconhecimento facial perigoso para o usuário, acusam entidades:
https://noticias.uol.com.br/colunas/leonardo-sakamoto/
[6] Leonardo Sakamoto – Metrô de SP é alvo de ação inédita que pede fim do reconhecimento
facial: https://noticias.uol.com.br/colunas/leonardo-sakamoto/
[7] Google conserta seu algoritmo “racista” apagando os gorilas:
https://brasil.elpais.com/brasil/2018/01/14/tecnologia/1515955554_803955.html
[8] Unesco, 2019. Preliminary study on the Ethics of Artificial Intelligence. Paris
[9] Acidentes e incidentes aéreos : https://pt.wikipedia.org/wiki/Acidentes_e_incidentes_a
%C3%A9reos
[10] Boeing, 2021. STATISTICAL SUMMARY OF COMMERCIAL JET AIRPLANE
ACCIDENTS Worldwide Operations | 1959 – 2020
[11] IATA, 2021. Safety Report – April 2022 – Edition58
[12] Reconhecimento facial e DNA: novas tecnologias na busca por desaparecidos:
https://www.uol.com.br/tilt/noticias/redacao/2022/04/26/reconhecimento-facial-e-dna-novastecnologias-na-busca-por-desaparecidos.htm
[13] Tecnologia brasileira garante precisão de 99% no reconhecimento facial de negros:
https://canaltech.com.br/inteligencia-artificial/tecnologia-brasileira-garante-precisao-de-99-noreconhecimento-facial-de-negros-183274/
[14] Exclusivo: 83% dos presos injustamente por reconhecimento fotográfico no Brasil são negros:
https://g1.globo.com/fantastico/noticia/2021/02/21/exclusivo-83percent-dos-presos-injustamentepor-reconhecimento-fotografico-no-brasil-sao-negros.ghtml
[15] Técnicas mais eficientes de reconhecimento facial – Portal USP São Carlos:
http://www.saocarlos.usp.br/pesquisador-desenvolve-tecnicas-mais-eficientes-de-reconhecimentofacial/

Licença Creative Commons Esta obra está licenciada com uma Licença Creative Commons Atribuição-CompartilhaIgual 4.0 Internacional.
Comentários:
Notificações
Notificar
1 Comentário
recentes
antigos mais votados
Inline Feedbacks
View all comments
Paulo Tadeu
Paulo Tadeu
12/09/2022 10:08

Excelente abordagem sobre o tema, dando exemplos de outras áreas a respeito da resistência das pessoas por novas tecnologias e sobre os vieses que IA pode ter principalmente causados pelos programadores do sistema.

Home » Internet Das Coisas » Quem tem medo da Inteligência Artificial?

EM DESTAQUE

WEBINARS

VEJA TAMBÉM

JUNTE-SE HOJE À COMUNIDADE EMBARCADOS

Talvez você goste: