O poder de ver além das capacidades do olho humano

As diferentes cores que podemos ver são baseadas em diferentes comprimentos de onda da luz. O olho humano pode detectar e diferenciar comprimentos de onda em três bandas (vermelho, verde e azul) cobrindo a faixa de 450 a 650 nanômetros, mas não podemos ver a luz das centenas de outras bandas de luz que existem fora dessa faixa. Existe uma tecnologia chamada imagem hiperespectral que pode fornecer uma visão aprimorada do que está acontecendo no mundo ao nosso redor. Existem câmeras especializadas que separam até 300 bandas de luz com prismas e depois digitalizam a energia que estão detectando em um comprimento de onda específico. Essas câmeras têm uma enorme gama de aplicações potenciais. Por exemplo, eles podem ser usados ​​para monitorar as emissões de gases de efeito estufa, diferenciar entre plásticos transparentes misturados ou medir o amadurecimento da fruta em uma linha de embalagem.

Existem vários fabricantes dessas câmeras hiperespectrais, mas, pelo menos por enquanto, elas são bastante caras – a partir de cerca de US$ 20,000. O software específico da câmera que eles usam não é tão fácil de integrar com outros sistemas. O outro desafio dessa visão ampliada do mundo tem a ver com o volume de dados – essas câmeras geram em torno de um gigabit de dados por segundo!

Existe uma empresa chamada Metaspectral que está buscando expandir o potencial da imagem hiperespectral, oferecendo uma combinação de hardware e software para tornar essa fonte de dados mais amigável. Eles usam dispositivos de borda “independentes de dispositivo” executando algoritmos de compressão que podem ser conectados a qualquer câmera hiperespectral e transformam sua saída de dados em um fluxo gerenciável. Sua plataforma proprietária Fusion AI pode ser usada para interagir com software de usuário familiar, conduzir robótica ou alimentar inteligência artificial e sistemas de aprendizado profundo.

A Metaspectral levantou recentemente US$ 4.7 milhões em uma rodada inicial de financiamento da SOMA Capital, Acequia Capital, Governo do Canadá e investidores anjos, incluindo Jude Gomila e Alan Rutledge. A empresa foi co-fundada por Francis Doumet (CEO) e Migel Tissera (CTO). Tissera descreve sua oferta da seguinte forma: “Desenvolvemos novos algoritmos de compressão de dados que nos permitem transportar dados hiperespectrais melhor e mais rápido, seja da órbita para o solo ou dentro de redes terrestres. Combinamos isso com nossos avanços em aprendizado profundo para realizar análises em nível de subpixel, permitindo-nos extrair mais informações do que a visão computacional convencional, porque nossos dados contêm mais informações sobre a dimensão espectral”.

De fato, a imagem hiperespectral pode ser empregada em escalas muito diferentes. Por exemplo, uma das aplicações mais desenvolvidas do sistema da Metaspectral é com câmeras de close-up em linhas de triagem para materiais reciclados mistos, onde é possível diferenciar plásticos transparentes por composição química, para que possam ser classificados em fluxos extremamente puros necessários para o reprocessamento .

A maior recicladora de lixo do Canadá agora está usando esse sistema. Existem outras aplicações de close-up para garantia de qualidade em linhas de montagem ou classificação de frutas.

No outro extremo a câmera pode estar gerando dados de um satélite onde cada pixel da imagem representa 30m x 30m quadrados (900 metros quadrados). A Agência Espacial Canadense está usando essa abordagem para rastrear as emissões de gases de efeito estufa e até mesmo para estimar o sequestro de carbono do solo em terras cultivadas ou florestais, comparando as taxas de fluxo ao longo do tempo. A tecnologia também está prevista para implantação futura na Estação Espacial Internacional. As avaliações de risco de incêndio florestal são outra aplicação potencial para orientar ações como queimadas prescritivas.

Outra opção que seria de uso particular para a agricultura é implantar as câmeras com drones voando a 50-100 metros. Nesse caso, cada pixel de dados pode representar uma área de 2 cm por 2 cm e a capacidade de monitorar tantos comprimentos de onda diferentes pode permitir a detecção precoce de ervas daninhas invasivas, atividade de insetos, infecções fúngicas em estágios antes de serem visíveis aos humanos, indicações precoces de água ou deficiências de nutrientes, ou parâmetros de maturidade da cultura para guiar o tempo de colheita. Pode ser possível rastrear as emissões de gases de efeito estufa ou amônia de solos cultivados para entender melhor como elas são influenciadas por práticas agrícolas específicas, como lavoura reduzida, cultivo de cobertura, fertilização de taxa variável ou “tráfego controlado de rodas”. Neste momento, o que é necessário é uma boa dose de pesquisa de “verdade em campo” para conectar os dados de imagem com as medições das variáveis ​​em questão, mas isso será muito mais fácil com a compactação de dados e os recursos de interface disponíveis no Metaspectral.

Uma esperança é que as diversas aplicações de imagens hiperespectrais facilitadas pela plataforma Metaspectral criem demanda suficiente para as câmeras para empurrar a fabricação ainda mais para baixo na curva de aprendizado de custo.

Fonte: https://www.forbes.com/sites/stevensavage/2022/12/14/the-power-of-seeing-beyond-the-capabilities-of-the-human-eye/