A inteligência artificial (IA) está se infiltrando em quase todas as indústrias e setores. De aplicativos que usamos, como o Google Maps, à automação de fábricas e carros de estacionamento paralelos, a IA está presente e não vai desaparecer.
A IA pode se tornar o novo modelo para os sistemas com os quais interagimos e dos quais dependemos. Isso significa que também será o modelo para projetistas de sistemas que desejam fabricar produtos modernos e competitivos. Mas a IA apresenta desafios de projeto para engenheiros com treinamento clássico em projeto de lógica analógica e digital. Felizmente, existem dispositivos, bibliotecas, kits de educação e desenvolvimento para ajudar a acelerar a curva de aprendizado.
Divergência de Técnicas de Design e Terminologias
Enquanto os engenheiros de projeto com treinamento clássico usam uma abordagem de cima para baixo para arquitetar sistemas, a abordagem de projeto de IA pode ser vista usando um método de diamante duplo em que as metas e os objetivos são definidos no primeiro diamante (Descobrir e Definir). A geração de ideias e a obtenção de soluções que funcionem podem fazer parte do segundo diamante (Desenvolver e Entregar).
A primeira tarefa é identificar o tipo de IA a ser projetada. A IA Narrow Intelligence aprende e realiza tarefas específicas. A IA General Intelligence é o futuro das IAs. As máquinas podem pensar, raciocinar, aprender e agir de forma independente.
O aprendizado de máquina é um subconjunto da IA que permite que as máquinas aprendam em vez de serem instruídas. O Google define o aprendizado de máquina como um subcampo da inteligência artificial que compreende técnicas e métodos para desenvolver as IAs, fazendo com que programas de computador façam algo sem programar regras super específicas. Como resultado, a IA baseada em abordagens digitais e baseada em softwares para IA pode ser vista como um conjunto de algoritmos estatísticos que encontram padrões em grandes quantidades de dados e, em seguida, usam esses dados para fazer previsões. Anunciantes e provedores de serviços usam essa técnica para sugerir o que assistir ou o que você pode estar interessado em comprar.
Tipos de aprendizado de IA
O aprendizado de máquina visa criar soluções que mantenham um alto nível de precisão. Até agora, encontrar e aplicar padrões segue quatro formas de aprendizado: aprendizado supervisionado, não supervisionado, reforçado e profundo.
Aprendizado Supervisionado:
Com o aprendizado supervisionado, uma máquina fornece dados rotulados para informar ao dispositivo o que ele deve buscar. Em seguida, o modelo se treina para reconhecer padrões em conjuntos de dados não rotulados e não treinados. Isso aproveita algoritmos de classificação e algoritmos de regressão que preveem valores de saída com base em recursos de dados de entrada para construir um modelo no treinamento de recursos. Como designer, hardware e processadores digitais padrão podem ser codificados para executar algoritmos heurísticos que resolvem esses problemas.
Aprendizado não supervisionado:
O aprendizado não supervisionado não rotula os dados de entrada. A máquina simplesmente procura todos os padrões no conjunto de dados. Isso requer menos recursos humanos, mas pode levar mais tempo para obter resultados que mantenham os níveis de precisão desejados. Mas também pode descobrir coisas novas e inesperadas. Novamente, técnicas de codificação e hardware padrão podem ser usadas para implementar os algoritmos de clustering e redução de dimensão que são comumente usados para máquinas de aprendizado não supervisionadas.
Aprendizado Reforçado:
Uma abordagem empolgante para o aprendizado de máquina é o Aprendizado Reforçado. Nenhum dado de aprendizado é fornecido para semear o processo de aprendizado. Em vez disso, os algoritmos do processador são jogados no fogo para aprender por tentativa e erro. Assim como as técnicas de modificação do comportamento fisiológico, um sistema de recompensas e penalidades é usado para orientar seu desenvolvimento em direção aos comportamentos desejados.
Aprendizado profundo:
O aprendizado profundo é talvez a melhor ferramenta para IA e a que mais recebe os holofotes. É diferente das outras três abordagens porque usa uma estrutura complexa de redes neurais. As redes neurais usam várias camadas de processamento para extrair recursos e tendências de nível cada vez maior. Cada camada é chamada de neurônio, um ponto de conexão de rede que decide se bloqueia ou passa um sinal para o próximo nível superior (Figura 1).
O aprendizado profundo imita a maneira como os humanos obtêm certos tipos de conhecimento. Ele brilha com grandes quantidades de dados sequenciais e é útil para os desafios mais avançados, como reconhecimento facial, diagnóstico médico, traduções de idiomas e veículos autônomos e de navegação. A McKinsey Analytics descobriu que o aprendizado profundo tem taxas de erro 41%, 27% e 25% menores¹ em tarefas complexas como classificação de imagem, reconhecimento facial e reconhecimento de voz, respectivamente.
Dominando um novo tipo de lógica
Em vez de portas lógicas que buscam a funcionalidade AND, OR e NOT, as redes neurais podem ser vistas como um sistema lógico que usa portas majoritárias e minoritárias. Uma porta majoritária criará uma saída ativa quando a maioria das entradas estiver em nível lógico alto. Uma porta minoritária exibirá um estado ativo quando uma minoria das entradas estiver ativa.
Um aglomerado neural desses tipos de elementos lógicos pode ser colocado em camadas para detectar e filtrar padrões em grandes conjuntos de dados. Diz-se que o aprendizado profundo funciona como um cérebro humano que recebe uma grande quantidade de informações sensoriais e as processa e as filtra em uma forma utilizável em tempo real.
Os sistemas de aprendizado supervisionado, não supervisionado e reforçado podem ser implementados usando elementos de circuito digital padrão, mas requerem conjuntos ilimitados de memória e armazenamento, bem como comunicações de entrada e saída de alta velocidade. Mas o aprendizado profundo apresenta um problema com essa abordagem. O problema é que projetar sistemas altamente complexos em um nível de porta não é uma maneira econômica e de tempo de implementar sistemas exponencialmente mais complexos. Múltiplos núcleos de processador podem criar uma rede multinível virtualmente simulada majoritária e minoritária, mas qualquer sistema simulado sempre será muito mais lento do que uma verdadeira abordagem baseada em hardware. Uma máquina real de aprendizado profundo precisará de chips e sistemas de rede neural altamente densos, flexíveis e ágeis.
Na vanguarda
Muitos estão trabalhando nisso com diferentes abordagens. De um lado, temos matrizes de filme fino com sinapses resistivas, que realizam apenas leitura, estão sendo desenvolvidas para serem uma rede programada que pode conter dados e conhecimento pré-capturados. Outra abordagem é uma série de sinapses e amplificadores programáveis servindo como neurônios elétricos.
Fabricantes de CI como Intel®, Qualcomm, NVidia, Samsung, AMD, Xilinx, IBM, STM Micro, NXP, Media Tek, Hi Silicon, Lightspeeur e Rockchip oferecem ou planejam fornecer chips de rede neural, IP e sistemas de desenvolvimento altamente sofisticados.
Ambas as abordagens digitais multicore e arquiteturas neurais sinápticas de multiníveis estão sendo usadas. Existem até chips digitais de autoaprendizagem como o Loihi 2 da Intel, que se autodenomina um dispositivo neuromórfico e é considerado o primeiro chip de autoaprendizagem do mundo. A Nvidia está construindo clusters de GPU maiores e mais rápidos chamados GPX-2, que usam switches não voláteis anunciados para fornecer dois petaflops de desempenho.
Uma descrição detalhada de todos os dispositivos e tecnologias de IA e aprendizado profundo está além do escopo deste artigo introdutório, mas existem maneiras de começar o quanto antes. Os kits de desenvolvimento de distribuidores como a Mouser oferecem computadores e módulos de placa única que são suportados por vários IPs e bibliotecas de IA que usam algumas das tecnologias de IA e aprendizado profundo mencionadas. Por exemplo, o Speed 110991205 usando o Rockchip RK399 é uma abordagem multi core digital com suporte para E/S digital padrão e interfaces de dispositivo, além de demonstração de aplicativo e código de exemplo.
Uma solução avançada é da IBM com seu True North Neuromorphic ASIC baseado no programa DARPA SyNAPSE. Ele contém 4.096 núcleos e implementa 268 milhões de sinapses programáveis usando 5,4 bilhões de transistores. Impressionante é sua potência ultrabaixa de 70mW, que a IBM afirma ser 1/100.000 da densidade de potência dos processadores convencionais.
Conclusão
Parcerias sendo forjadas, como a adoção da STMicroelectronics das bibliotecas de aprendizado de máquina do Google, TensorFlow, estão prontas para fornecer desenvolvimento rápido, treinamento e implantação de máquinas de aprendizado baseadas em IA. Essas máquinas rapidamente se tornarão uma parte maior de nossas vidas. Da mesma forma, a IBM fez parceria com a NVidia POWER9 para fornecer aceleradores baseados em GPU e FPGA que suportam o OpenCAPI 3.0 e o PCI-Express 4.0, posicionando-se para trabalhar com conexões de alta velocidade para transferir dados de entrada e saída.
Já estamos usando IA, às vezes sem nem perceber. Os aplicativos de GPS que nos redirecionam dinamicamente ao redor de obstáculos no trânsito são um exemplo. Os anúncios sugestivos e as sugestões de o que assistir ou ouvir são outro exemplo. Carros autônomos e estacionamento paralelo são mais um exemplo. Quando integrada perfeitamente em nossos estilos de vida, pode ser uma forma benéfica de servir ao homem, desde que não esteja criando um livro de receitas.
Referência
1. “An Executive’s Guide to AI.” Accessed March 10, 2023. https://www.mckinsey.com/capabilities/quantumblack/our-insights/an-executives-guide-to-ai
Artigo escrito por Jon Gabay e publicado no blog da Mouser Electronics: An Engineer’s Primer: Designing AI Systems
Traduzido pela Equipe Embarcados. Visite a página da Mouser Electronics no Embarcados
(*) este post foi patrocinado pela Mouser Electronics.








