Dados na Borda: Por Que a Computação Está Voltando para Casa, Saindo da Nuvem

A história da computação pode ser contada sob várias perspectivas. Tome, por exemplo, o jogo de gato e rato entre hardware e software. Um novo hardware é lançado, e leva um tempo até que o software aproveite totalmente sua capacidade computacional. Depois, o software se torna mais exigente em recursos e precisa esperar o hardware acompanhar. Outro exemplo é o vai-e-volta entre a capacidade computacional local e remota. Embora a terminologia possa mudar — nuvem versus remoto e local versus borda — os conceitos gerais continuam relevantes. Essencialmente, computação de borda trata de maximizar o processamento de dados o mais próximo possível da fonte física.

A computação de borda é uma etapa na evolução computacional onde os dados não são apenas cliques do mouse e teclas digitadas, mas sim telemetria de sensores, imagens de câmeras e transmissões de vídeo, entre muitas outras fontes. Então, em uma era de acesso quase onipresente à internet sem fio em muitas regiões do mundo, por que não simplesmente agrupar todos os dados e enviá-los para a nuvem? Afinal, isso tem sido feito desde 2006, com o surgimento de infraestruturas confiáveis de nuvem, como Amazon Web Services (AWS), Google Cloud e Microsoft Azure. No entanto, responder a essa pergunta não é tão simples assim.

Local para Remoto e de Volta para Local

Para responder a essa questão, vamos observar o surgimento da própria internet. Na década de 1990, havia um problema de latência conforme os sites começaram a surgir na World Wide Web. Embora um site hospedado em um servidor nos Estados Unidos pudesse ser acessado do Japão, o download do site para o navegador podia levar um tempo relativamente longo. Esse atraso, conhecido como latência, podia piorar se a rede estivesse muito ativa com outros usuários. Além disso, se o site se tornasse popular, o tráfego adicional só agravaria o problema. Para reduzir essa latência e melhorar a experiência geral, foram criadas redes de distribuição de conteúdo locais (CDNs) para armazenar cópias de sites (ou outros conteúdos, como filmes ou documentos) mais próximas dos usuários finais que os acessam.

Com essa base, vamos analisar o que torna a computação de borda (edge computing) diferente do que veio antes. Por volta do surgimento dos smartphones e seus periféricos associados — como wearables, câmeras de Internet das Coisas (IoT), lâmpadas inteligentes — ocorreu uma mudança fundamental na origem e no fluxo direcional dos dados. Em vez de acessar conteúdos estáticos de um servidor remoto para visualizá-los localmente no navegador, esses “dispositivos inteligentes” começaram a gerar grandes volumes de dados a partir de seus múltiplos sensores embutidos.

O problema é que esses dispositivos não eram realmente tão inteligentes assim. Os sensores podem gerar dados, mas dados não são informação nem conhecimento. Para serem úteis, esses dados precisam ser processados e, para os dispositivos inteligentes, esse processamento geralmente ocorre na nuvem, especialmente com o avanço dos algoritmos computacionalmente intensivos de inteligência artificial (IA) e aprendizado de máquina (ML). De repente, muitos dispositivos com muitos dados estavam enviando uma enorme quantidade de informações para a nuvem.

A Latência Volta a Ser o Gargalo

Tudo isso nos leva de volta ao incômodo problema da latência, especialmente no que diz respeito à inferência. Em computação, inferência é o processo em que um modelo de IA treinado recebe novos dados de entrada para produzir resultados probabilísticos. Essa é a parte da IA/ML mais voltada para o usuário final e historicamente exige muita capacidade computacional. Por isso, acertar na inferência é fundamental.

Inicialmente, a única opção viável era enviar os dados brutos para a nuvem, aproveitando o poder computacional dos servidores, e depois retornar os resultados para o dispositivo local. Contudo, o hardware embarcado evoluiu e se tornou mais potente, e os algoritmos de ML ganharam eficiência. Essa convergência gerou diversos benefícios importantes, tornando a computação de borda uma alternativa viável ao envio de todos esses dados para a nuvem para processamento.

  • Redução da latência: A computação de borda possibilita respostas em tempo real ou quase real ao eliminar a necessidade de enviar dados para uma nuvem remota para processamento.
  • Otimização da largura de banda: Processar os dados localmente diminui o volume de informações que precisam ser transmitidas aos servidores centrais, economizando a capacidade da rede.
  • Maior confiabilidade: A computação de borda continua operando mesmo com conectividade de internet intermitente ou limitada, tornando-a ideal para aplicações remotas ou críticas.
  • Segurança e privacidade: Dados sensíveis podem ser processados localmente em vez de serem transmitidos para um local central, reduzindo a exposição a possíveis ameaças cibernéticas.

Nova Tecnologia que Torna a Computação de Borda uma Realidade

O surgimento de novos hardwares e softwares nos últimos anos tem possibilitado o aumento do uso da computação de borda, tornando viável a execução de algoritmos complexos, como redes neurais, em dispositivos relativamente baratos e alimentados por bateria. A seguir, alguns dos hardwares nativos para borda mais utilizados atualmente:

  • Google Edge Tensor Processing Unit (TPU): chip projetado especificamente para executar modelos TensorFlow Lite de forma eficiente.
  • Série NVIDIA Jetson: plataformas embarcadas aceleradas por IA para robótica, análise de vídeo e cidades inteligentes.
  • Intel® Movidius™ Neural Compute Stick: acelerador USB plug-and-play para aprendizado profundo de baixo consumo.
  • Gateways industriais de borda: micro data centers robustos que atuam como hubs locais de processamento e conectividade para enviar dados à nuvem e receber atualizações.

Ainda assim, hardware não é nada sem software. As cargas de trabalho de IA na borda exigem frameworks de software otimizados para inferência de baixo consumo, entre os frameworks populares disponíveis estão:

  • TensorFlow Lite: inferência leve de aprendizado de máquina para dispositivos de borda
  • ONNX Runtime: suporte à execução de modelos de IA em diversas plataformas
  • NVIDIA TensorRT: inferência de deep learning otimizada para dispositivos Jetson

No entanto, para operações críticas que não podem esperar pela nuvem, como processamento em tempo real para IA, análise de vídeo e robótica, processar na borda não significa que os dados nunca serão enviados para a nuvem. Existem motivos importantes para o envio de dados à nuvem via gateways de borda, tais como:

  • Armazenamento escalável e arquivamento: armazenar grandes volumes de dados a longo prazo, sem limitações de hardware.
  • Análises globais e detecção de tendências: agregar dados de múltiplos dispositivos para descobrir insights e padrões do sistema como um todo.
  • Treinamento avançado de modelos: usar recursos poderosos da nuvem para re-treinar modelos com dados reais e implementar as versões atualizadas na borda.
  • Gerenciamento centralizado: monitorar, atualizar e gerenciar dispositivos remotamente por meio de painéis na nuvem e ferramentas de automação.
  • Recuperação de desastres e redundância: proteger dados contra falhas locais por meio de backups seguros e replicados na nuvem.

Protocolos de comunicação orientados para a borda e brokers de mensagens, como os seguintes, garantem que essa comunicação seja feita de forma eficiente:

  • Message Queuing Telemetry Transport (MQTT): comunicação eficiente e de baixo overhead para IoT
  • Constrained Application Protocol (CoAP): protocolo leve projetado para dispositivos com recursos limitados
  • Advanced Message Queuing Protocol (AMQP): usado em bancos e aplicações industriais para mensagens robustas
  • ZeroMQ e NATS: sistemas de mensagens de alta velocidade para processamento em tempo real

Para garantir segurança, desempenho e flexibilidade na borda, surgiram sistemas operacionais e ambientes de execução especializados para deploys edge. Esses ambientes são feitos para rodar de forma confiável em dispositivos com recursos limitados, suportar cargas de trabalho conteinerizadas e possibilitar entrega segura de software e gerenciamento de ciclo de vida em campo. Algumas plataformas amplamente usadas incluem:

  • Ubuntu Core: versão enxuta e pronta para containers do Ubuntu, projetada para IoT e sistemas embarcados. Utiliza pacotes snap para atualizações automáticas, permitindo atualizações seguras e rollback quando necessário. Seu sistema de arquivos somente de leitura e modelo de confinamento rígido o tornam ideal para aplicações críticas que exigem confiabilidade e resiliência.
  • Yocto Project: mais que uma distribuição Linux, é um conjunto de ferramentas independentes de plataforma que permite criar sistemas Linux personalizados, leves e ajustados exatamente ao hardware e aplicações embarcadas. Muito usado em setores industriais, automotivos e eletrônicos de consumo que demandam controle total sobre footprint, dependências e segurança do sistema operacional.
  • Azure IoT Edge Runtime: plataforma de computação de borda baseada em containers da Microsoft que permite levar inteligência da nuvem para dispositivos de borda. Suporta cargas conteinerizadas, como modelos de IA, Azure Functions e lógicas customizadas, tudo gerenciado pelo portal Azure. Recursos como execução offline, “device twins” e monitoramento centralizado fazem dela um runtime poderoso para empresas com ativos distribuídos em fábricas, logística e redes de infraestrutura.

Por fim, para gerenciar a crescente complexidade dos sistemas distribuídos de computação na borda, grandes provedores de nuvem e plataformas especializadas oferecem agora frameworks orquestrados que fazem a ponte entre borda e nuvem. Essas plataformas suportam provisionamento de dispositivos, implantação de cargas de trabalho, comunicação segura e gerenciamento do ciclo de vida.

  • AWS Greengrass: framework de borda da Amazon que estende os serviços AWS para dispositivos locais, permitindo executar funções Lambda, manter mensagens e estados locais, e realizar inferência de machine learning com modelos treinados na nuvem. Suporta mensagens MQTT, modo offline e sincronização transparente com o AWS IoT Core.
  • Azure IoT Edge: serviço totalmente gerenciado que leva os recursos do Azure — como análise de fluxo, ML e lógica customizada — para dispositivos de borda via containers Docker. Suporta orquestração de módulos de borda, implantação de código over-the-air, e integração avançada com Azure DevOps para pipelines CI/CD em cenários IoT.
  • Google Cloud IoT Edge: plataforma para estender os serviços de IA e dados do Google Cloud para a borda, incluindo suporte ao Edge TPU, TensorFlow Lite e gerenciamento seguro de dispositivos. Apesar do desenvolvimento ter desacelerado em favor do Anthos e do Google Kubernetes Engine on-premises (GKE on-prem), ainda é uma solução viável para aplicações pesadas em visão computacional e inferência em ambientes Google-centricos.
  • Edge Impulse: diferente das outras três, esta plataforma foca exclusivamente em TinyML, um tipo de aprendizado de máquina otimizado para microcontroladores e hardware com recursos limitados. Oferece ferramentas para coleta de dados, treinamento de modelos, implantação no dispositivo e otimização de performance. TinyML é muito apreciado por desenvolvedores de wearables inteligentes, redes de sensores e dispositivos alimentados por bateria, onde cada byte e miliampere fazem diferença.

Conclusão

A computação de borda representa uma mudança crucial na forma como projetamos, construímos e implementamos sistemas inteligentes — e, para os engenheiros, abre uma nova e empolgante fronteira. Com a capacidade de processar dados localmente, em tempo real e em dispositivos com recursos limitados, a computação de borda traz diretamente para o ambiente onde os dados são gerados funcionalidades avançadas como IA, automação e análise. Além do impacto tecnológico, a computação de borda é importante também sob os aspectos legais e comerciais, diante do aumento das leis de proteção e privacidade de dados, como o Regulamento Geral sobre a Proteção de Dados (GDPR).

Essa evolução é impulsionada por microcontroladores cada vez mais potentes, aceleradores de IA energeticamente eficientes e frameworks de aprendizado de máquina (ML) leves. Plataformas como AWS Greengrass e Azure IoT Edge, junto com ferramentas como TensorFlow Lite e NVIDIA Jetson, estão democratizando o acesso a tecnologias antes restritas a centros de dados corporativos. Hoje, engenheiros podem prototipar e implementar aplicações sofisticadas e inteligentes na borda, desde robôs autônomos e monitores ambientais inteligentes até wearables conectados e sistemas de automação industrial.

Em última análise, a computação de borda permite que os engenheiros se libertem da dependência da nuvem, possibilitando projetos mais responsivos, resilientes e atentos à privacidade. Ela capacita os criadores a desenvolver sistemas que “pensam localmente e agem instantaneamente” — uma abordagem que não é apenas tecnologicamente poderosa, mas também cada vez mais necessária em um mundo conectado e orientado por dados. À medida que a borda continua a evoluir, ela oferece uma oportunidade inédita para que engenheiros moldem a próxima geração de tecnologias inteligentes e descentralizadas.

Artigo escrito por Michael Park e publicado no blog da Mouser Electronics: Data at the Edge: Why Computing Is Coming Home from the Cloud

Traduzido pela Equipe Embarcados. Visite a página da Mouser Electronics no Embarcados

Comentários:
Notificações
Notificar
0 Comentários
recentes
antigos mais votados
Inline Feedbacks
View all comments
Home » Internet Das Coisas » Dados na Borda: Por Que a Computação Está Voltando para Casa, Saindo da Nuvem

EM DESTAQUE

WEBINARS

VEJA TAMBÉM

JUNTE-SE HOJE À COMUNIDADE EMBARCADOS

Talvez você goste: