Texas Instruments AM6x desenvolvendo múltiplas câmeras
Especificações
- Nome do produto: família de dispositivos AM6x
- Tipo de câmera compatível: AM62A (com ou sem ISP integrado), AM62P (com ISP integrado)
- Dados de saída da câmera: AM62A (Raw/YUV/RGB), AM62P (YUV/RGB)
- ISP HWA: AM62A (Sim), AM62P (Não)
- Deep Learning HWA: AM62A (Sim), AM62P (Não)
- HWA de gráficos 3D: AM62A (Não), AM62P (Sim)
Introdução a aplicações de múltiplas câmeras no AM6x:
- Câmeras incorporadas desempenham um papel crucial nos sistemas de visão modernos.
- Utilizar várias câmeras em um sistema aumenta as capacidades e possibilita tarefas que não seriam possíveis com uma única câmera.
Aplicações que utilizam múltiplas câmeras:
- Vigilância de Segurança: Melhora a cobertura de vigilância, o rastreamento de objetos e a precisão do reconhecimento.
- Cercar View: Permite visão estéreo para tarefas como detecção de obstáculos e manipulação de objetos.
- Sistema de gravador de cabine e espelho de câmera: Oferece cobertura estendida e elimina pontos cegos.
- Imagem médica: Oferece maior precisão na navegação cirúrgica e endoscopia.
- Drones e imagens aéreas: Capture imagens de alta resolução de diferentes ângulos para diversas aplicações.
Conectando várias câmeras CSI-2 ao SoC:
Para conectar várias câmeras CSI-2 ao SoC, siga as instruções fornecidas no manual do usuário. Certifique-se de que cada câmera esteja alinhada e conectada corretamente às portas designadas no SoC.
Nota de aplicação
Desenvolvendo aplicações de múltiplas câmeras no AM6x
Jianzhong Xu, Qutaiba Saleh
RESUMO
Este relatório descreve o desenvolvimento de aplicações utilizando múltiplas câmeras CSI-2 na família de dispositivos AM6x. Um projeto de referência de detecção de objetos com aprendizado profundo em quatro câmeras no SoC AM4A é apresentado, juntamente com uma análise de desempenho. Os princípios gerais do projeto se aplicam a outros SoCs com interface CSI-62, como AM2x e AM62P.
Introdução
Câmeras embarcadas desempenham um papel importante nos sistemas de visão modernos. O uso de múltiplas câmeras em um sistema expande as capacidades desses sistemas e possibilita recursos que não seriam possíveis com uma única câmera. Abaixo estão alguns exemplos:amples de aplicações usando múltiplas câmeras incorporadas:
- Vigilância de Segurança: Diversas câmeras posicionadas estrategicamente proporcionam cobertura de vigilância abrangente. Elas permitem visão panorâmica views, reduzem os pontos cegos e aumentam a precisão do rastreamento e reconhecimento de objetos, melhorando as medidas gerais de segurança.
- Cercar View: Múltiplas câmeras são usadas para criar uma configuração de visão estéreo, permitindo informações tridimensionais e a estimativa de profundidade. Isso é crucial para tarefas como detecção de obstáculos em veículos autônomos, manipulação precisa de objetos em robótica e realismo aprimorado em experiências de realidade aumentada.
- Sistema de Gravador de Cabine e Espelho com Câmera: Um gravador de cabine com múltiplas câmeras pode fornecer mais cobertura usando um único processador. Da mesma forma, um sistema de espelho com duas ou mais câmeras pode expandir o campo de visão do motorista. view e eliminar pontos cegos de todos os lados do carro.
- Imagem Médica: Múltiplas câmeras podem ser usadas em imagens médicas para tarefas como navegação cirúrgica, proporcionando aos cirurgiões múltiplas perspectivas para maior precisão. Na endoscopia, múltiplas câmeras permitem um exame completo dos órgãos internos.
- Drones e Imagens Aéreas: Drones geralmente vêm equipados com múltiplas câmeras para capturar imagens ou vídeos de alta resolução de diferentes ângulos. Isso é útil em aplicações como fotografia aérea, monitoramento agrícola e topografia.
- Com o avanço dos microprocessadores, várias câmeras podem ser integradas em um único sistema em um chip.
(SoC) para fornecer soluções compactas e eficientes. O SoC AM62Ax, com processamento de vídeo/visão de alto desempenho e aceleração de aprendizado profundo, é um dispositivo ideal para os casos de uso mencionados. Outro dispositivo AM6x, o AM62P, foi desenvolvido para aplicações de exibição 3D embarcada de alto desempenho. Equipado com aceleração gráfica 3D, o AM62P pode facilmente unir as imagens de várias câmeras e produzir uma panorâmica de alta resolução. view. Os recursos inovadores do SoC AM62A/AM62P foram apresentados em várias publicações, como [4], [5], [6], etc. Esta nota de aplicação não repetirá essas descrições de recursos, mas se concentrará na integração de várias câmeras CSI-2 em aplicativos de visão embarcados no AM62A/AM62P. - A Tabela 1-1 mostra as principais diferenças entre AM62A e AM62P no que diz respeito ao processamento de imagem.
Tabela 1-1. Diferenças entre AM62A e AM62P no processamento de imagens
SoC | AM62A | AM62P |
Tipo de câmera compatível | Com ou sem um ISP integrado | Com ISP integrado |
Dados de saída da câmera | Cru/YUV/RGB | YUV/RGB |
ISP HWA | Sim | Não |
HWA de Aprendizado Profundo | Sim | Não |
HWA de gráficos 3D | Não | Sim |
Conectando várias câmeras CSI-2 ao SoC
O subsistema de câmera no AM6x SoC contém os seguintes componentes, conforme mostrado na Figura 2-1:
- Receptor MIPI D-PHY: recebe fluxos de vídeo de câmeras externas, suportando até 1.5 Gbps por faixa de dados para 4 faixas.
- Receptor CSI-2 (RX): recebe fluxos de vídeo do receptor D-PHY e os envia diretamente para o ISP ou transfere os dados para a memória DDR. Este módulo suporta até 16 canais virtuais.
- SHIM: um wrapper DMA que permite o envio dos fluxos capturados para a memória via DMA. Este wrapper permite a criação de múltiplos contextos DMA, com cada contexto correspondendo a um canal virtual do Receptor CSI-2.
Várias câmeras podem ser suportadas no AM6x por meio do uso de canais virtuais de CSI-2 RX, mesmo que haja apenas uma interface CSI-2 RX no SoC. Um componente agregador CSI-2 externo é necessário para combinar múltiplos fluxos de câmera e enviá-los para um único SoC. Dois tipos de soluções de agregação CSI-2 podem ser usados, descritos nas seções a seguir.
Agregador CSI-2 usando SerDes
Uma maneira de combinar múltiplos fluxos de câmera é usar uma solução de serialização e desserialização (SerDes). Os dados CSI-2 de cada câmera são convertidos por um serializador e transferidos por meio de um cabo. O desserializador recebe todos os dados serializados transferidos dos cabos (um cabo por câmera), converte os fluxos de volta para dados CSI-2 e, em seguida, envia um fluxo CSI-2 intercalado para a interface CSI-2 RX única no SoC. Cada fluxo de câmera é identificado por um canal virtual exclusivo. Essa solução de agregação oferece o benefício adicional de permitir conexões de longa distância de até 15 m entre as câmeras e o SoC.
Os serializadores e desserializadores FPD-Link ou V3-Link (SerDes), suportados pelo AM6x Linux SDK, são as tecnologias mais populares para este tipo de solução de agregação CSI-2. Tanto o FPD-Link quanto o V3-Link possuem canais de retorno que podem ser usados para enviar sinais de sincronização de quadros para sincronizar todas as câmeras, conforme explicado em [7].
A Figura 2-2 mostra um example de usar o SerDes para conectar várias câmeras a um único AM6x SoC.
Um exampUma parte desta solução de agregação pode ser encontrada no Kit de Solução de Câmera Arducam V3Link. Este kit possui um hub desserializador que agrega 4 fluxos de câmera CSI-2, bem como 4 pares de serializadores V3link e câmeras IMX219, incluindo cabos coaxiais FAKRA e cabos FPC de 22 pinos. O projeto de referência discutido posteriormente é baseado neste kit.
Agregador CSI-2 sem usar SerDes
Este tipo de agregador pode interagir diretamente com várias câmeras MIPI CSI-2 e agregar os dados de todas as câmeras em um único fluxo de saída CSI-2.
A Figura 2-3 mostra um exampde tal sistema. Este tipo de solução de agregação não utiliza nenhum serializador/desserializador, mas é limitado pela distância máxima de transferência de dados CSI-2, que é de até 30 cm. O AM6x Linux SDK não suporta este tipo de agregador CSI-2.
Habilitando múltiplas câmeras no software
Arquitetura de software do subsistema de câmera
A Figura 3-1 mostra um diagrama de blocos de alto nível do software do sistema de captura de câmera no AM62A/AM62P Linux SDK, correspondente ao sistema HW na Figura 2-2.
- Esta arquitetura de software permite que o SoC receba múltiplos fluxos de câmera com o uso de SerDes, conforme mostrado na Figura 2-2. O SerDes do FPD-Link/V3-Link atribui um endereço I2C exclusivo e um canal virtual a cada câmera. Uma sobreposição de árvore de dispositivos exclusiva deve ser criada com o endereço I2C exclusivo para cada câmera. O driver CSI-2 RX reconhece cada câmera usando o número exclusivo do canal virtual e cria um contexto DMA para cada fluxo de câmera. Um nó de vídeo é criado para cada contexto DMA. Os dados de cada câmera são então recebidos e armazenados na memória usando DMA. Os aplicativos de espaço do usuário usam os nós de vídeo correspondentes a cada câmera para acessar os dados da câmera. ExemploampExemplos de uso desta arquitetura de software são fornecidos no Capítulo 4 – Projeto de Referência.
- Qualquer driver de sensor específico compatível com a estrutura V4L2 pode ser instalado e usado nesta arquitetura. Consulte [8] para saber como integrar um novo driver de sensor ao SDK do Linux.
Arquitetura de software de pipeline de imagens
- O AM6x Linux SDK fornece o framework GStreamer (GST), que pode ser usado no espaço ser para integrar os componentes de processamento de imagem para diversas aplicações. Os Aceleradores de Hardware (HWA) no SoC, como o Acelerador de Pré-processamento de Visão (VPAC) ou ISP, o codificador/decodificador de vídeo e o mecanismo de computação de aprendizado profundo, são acessados por meio do GST. plugins. O próprio VPAC (ISP) tem vários blocos, incluindo Vision Imaging Sub-System (VISS), Lens Distortion Correction (LDC) e Multiscalar (MSC), cada um correspondendo a um plugin GST.
- A Figura 3-2 mostra o diagrama de blocos de um pipeline de imagem típico da câmera para codificação ou processamento profundo.
Aplicativos de aprendizagem no AM62A. Para mais detalhes sobre o fluxo de dados de ponta a ponta, consulte a documentação do EdgeAI SDK.
Para AM62P, o pipeline de imagem é mais simples porque não há ISP no AM62P.
Com um nó de vídeo criado para cada uma das câmeras, o pipeline de imagens baseado no GStreamer permite o processamento simultâneo de múltiplas entradas de câmera (conectadas pela mesma interface CSI-2 RX). Um projeto de referência utilizando o GStreamer para aplicações multicâmera é apresentado no próximo capítulo.
Design de referência
Este capítulo apresenta um projeto de referência para execução de aplicativos de múltiplas câmeras no AM62A EVM, usando o Arducam V3Link Camera Solution Kit para conectar 4 câmeras CSI-2 ao AM62A e executando a detecção de objetos para todas as 4 câmeras.
Câmeras Suportadas
O kit Arducam V3Link é compatível com câmeras FPD-Link/V3-Link e câmeras CSI-2 compatíveis com Raspberry Pi. As seguintes câmeras foram testadas:
- D3 Engenharia D3RCM-IMX390-953
- Imagem Leopard LI-OV2312-FPDLINKIII-110H
- Câmeras IMX219 no kit de solução de câmera Arducam V3Link
Configurando quatro câmeras IMX219
Siga as instruções fornecidas no Guia de Início Rápido do Kit Inicial EVM AM62A para configurar o EVM SK-AM62A-LP (AM62A SK) e o Guia de Início Rápido da Solução de Câmera ArduCam V3Link para conectar as câmeras ao AM62A SK por meio do kit V3Link. Certifique-se de que os pinos dos cabos flexíveis, das câmeras, da placa V3Link e do AM62A SK estejam todos alinhados corretamente.
A Figura 4-1 mostra a configuração usada para o projeto de referência neste relatório. Os principais componentes da configuração incluem:
- 1X placa EVM SK-AM62A-LP
- 1X placa adaptadora Arducam V3Link d-ch
- Cabo FPC conectando Arducam V3Link ao SK-AM62A
- 4 adaptadores de câmera V3Link (serializadores)
- 4 cabos coaxiais RF para conectar serializadores V3Link ao kit V3Link d-ch
- 4 câmeras IMX219
- 4 cabos CSI-2 de 22 pinos para conectar câmeras a serializadores
- Cabos: cabo HDMI, USB-C para alimentar o SK-AM62A-LP e fonte de alimentação de 12 V para o kit V3Link d-ch)
- Outros componentes não mostrados na Figura 4-1: cartão micro-SD, cabo micro-USB para acessar SK-AM62A-LP e Ethernet para streaming
Configurando câmeras e interface CSI-2 RX
Configure o software de acordo com as instruções fornecidas no Guia de Início Rápido do Arducam V3Link. Após executar o script de configuração da câmera, setup-imx219.sh, o formato da câmera, o formato da interface CSI-2 RX e as rotas de cada câmera para o nó de vídeo correspondente serão configurados corretamente. Quatro nós de vídeo são criados para as quatro câmeras IMX219. O comando "v4l2-ctl –list-devices" exibe todos os dispositivos de vídeo V4L2, conforme mostrado abaixo:
Há 6 nós de vídeo e 1 nó de mídia em tiscsi2rx. Cada nó de vídeo corresponde a um contexto DMA alocado pelo driver CSI2 RX. Dos 6 nós de vídeo, 4 são usados para as 4 câmeras IMX219, conforme mostrado na topologia de pipeline de mídia abaixo:
Como mostrado acima, a entidade de mídia 30102000.ticsi2rx possui 6 blocos de origem, mas apenas os 4 primeiros são usados, cada um para um IMX219. A topologia do canal de mídia também pode ser ilustrada graficamente. Execute o seguinte comando para gerar um ponto file:
Em seguida, execute o comando abaixo em um PC host Linux para gerar um PNG file:
A Figura 4-2 é uma imagem gerada usando os comandos fornecidos acima. Os componentes da arquitetura de software da Figura 3-1 podem ser encontrados neste gráfico.
Transmissão de quatro câmeras
Com o hardware e o software configurados corretamente, aplicativos com múltiplas câmeras podem ser executados a partir do espaço do usuário. Para AM62A, o ISP deve ser ajustado para produzir boa qualidade de imagem. Consulte o Guia de Ajuste de ISP do AM6xA para saber como realizar o ajuste de ISP. As seções a seguir apresentam exemplosamplições de transmissão de dados da câmera para um monitor, transmissão de dados da câmera para uma rede e armazenamento dos dados da câmera em files.
Transmissão de dados da câmera para exibição
Uma aplicação básica deste sistema multicâmera é transmitir os vídeos de todas as câmeras para um monitor conectado ao mesmo SoC. A seguir, um exemplo de pipeline do GStreamer.ample de streaming de quatro IMX219 para um monitor (os números dos nós de vídeo e os números v4l-subdev no pipeline provavelmente mudarão de reinicialização para reinicialização).
Transmissão de dados da câmera via Ethernet
Em vez de transmitir para um monitor conectado ao mesmo SoC, os dados da câmera também podem ser transmitidos pela Ethernet. O lado receptor pode ser outro processador AM62A/AM62P ou um PC host. A seguir, um exemploampmodo de transmitir os dados da câmera pela Ethernet (usando duas câmeras para simplificar) (observe o plug-in do codificador usado no pipeline):
O seguinte é um example de receber os dados da câmera e transmitir para um display em outro processador AM62A/AM62P:
Armazenando dados da câmera em Files
Em vez de transmitir para um monitor ou por meio de uma rede, os dados da câmera podem ser armazenados localmente files. O pipeline abaixo armazena os dados de cada câmera em um file (usando duas câmeras como examp(le para simplificar).
Inferência de Aprendizado Profundo Multicâmera
O AM62A está equipado com um acelerador de aprendizado profundo (C7x-MMA) com até dois TOPS, capazes de executar diversos tipos de modelos de aprendizado profundo para classificação, detecção de objetos, segmentação semântica e muito mais. Esta seção mostra como o AM62A pode executar simultaneamente quatro modelos de aprendizado profundo em quatro feeds de câmera diferentes.
Seleção de modelo
O EdgeAI-ModelZoo da TI fornece centenas de modelos de última geração, que são convertidos/exportados de suas estruturas de treinamento originais para um formato amigável para incorporação, permitindo que sejam transferidos para o acelerador de aprendizado profundo C7x-MMA. O Edge AI Studio Model Analyzer, baseado em nuvem, oferece uma ferramenta de "Seleção de Modelos" fácil de usar. Ela é atualizada dinamicamente para incluir todos os modelos suportados pelo EdgeAI-ModelZoo da TI. A ferramenta não requer experiência prévia e oferece uma interface fácil de usar para inserir os recursos necessários no modelo desejado.
O TFL-OD-2000-ssd-mobV1-coco-mlperf foi selecionado para este experimento de aprendizado profundo multicâmera. Este modelo de detecção multiobjeto foi desenvolvido no framework TensorFlow com uma resolução de entrada de 300×300. A Tabela 4-1 mostra as características importantes deste modelo quando treinado no conjunto de dados cCOCO com cerca de 80 classes diferentes.
Tabela 4-1. Destaque os recursos do modelo TFL-OD-2000-ssd-mobV1-coco-mlperf.
Modelo | Tarefa | Resolução | FPS | mAP 50%
Precisão no COCO |
Latência/Quadro (ms) | DDR BW
Utilização (MB/Quadro) |
TFL-OD-2000-ssd-
mobV1-coco-mlperf |
Detecção de múltiplos objetos | 300×300 | ~152 | 15.9 | 6.5 | 18.839 |
Configuração do pipeline
A Figura 4-3 mostra o pipeline de aprendizado profundo do GStreamer com quatro câmeras. A TI fornece um conjunto de GStreamer plugins que permitem transferir parte do processamento de mídia e da inferência de aprendizado profundo para os aceleradores de hardware. Alguns exemplosamples destes plugins incluem tiovxisp, tiovxmultiscaler, tiovxmosaic e tidlinferer. O pipeline na Figura 4-3 inclui todos os plugins para um pipeline GStreamer multicaminho para entradas de 4 câmeras, cada uma com pré-processamento de mídia, inferência de aprendizado profundo e pós-processamento. O duplicado plugins para cada um dos caminhos da câmera são empilhados no gráfico para facilitar a demonstração.
Os recursos de hardware disponíveis são distribuídos uniformemente entre os quatro caminhos de câmera. Por exemplo, o AM62A contém dois multiescaladores de imagem: MSC0 e MSC1. O pipeline dedica explicitamente o MSC0 para processar os caminhos das câmeras 1 e 2, enquanto o MSC1 é dedicado às câmeras 3 e 4.
A saída dos quatro pipelines de câmeras é reduzida e concatenada usando o plugin tiovxmosaic. A saída é exibida em uma única tela. A Figura 4-4 mostra a saída das quatro câmeras com um modelo de aprendizado profundo executando a detecção de objetos. Cada pipeline (câmera) está sendo executado a 30 FPS e um total de 120 FPS.
A seguir está o script de pipeline completo para o caso de uso de aprendizado profundo multicâmera mostrado na Figura 4-3.
Análise de desempenho
A configuração com quatro câmeras usando a placa V3Link e o AM62A SK foi testada em vários cenários de aplicação, incluindo exibição direta em uma tela, streaming pela Ethernet (quatro canais UDP), gravação em 4 canais separados files, e com inferência de aprendizado profundo. Em cada experimento, monitoramos a taxa de quadros e a utilização dos núcleos da CPU para explorar as capacidades de todo o sistema.
Conforme mostrado anteriormente na Figura 4-4, o pipeline de aprendizado profundo usa o plugin tiperfoverlay GStreamer para exibir as cargas de núcleo da CPU como um gráfico de barras na parte inferior da tela. Por padrão, o gráfico é atualizado a cada dois segundos para mostrar as cargas como uma porcentagem de utilização.tage. Além do plugin tiperfoverlay GStreamer, a ferramenta perf_stats é uma segunda opção para mostrar o desempenho do núcleo diretamente no terminal com uma opção para salvar em um fileEsta ferramenta é mais precisa em comparação com o tTiperfoverlay, pois este adiciona carga extra aos núcleos ARMm e ao DDR para desenhar o gráfico e sobrepô-lo na tela. A ferramenta perf_stats é usada principalmente para coletar resultados de utilização de hardware em todos os casos de teste mostrados neste documento. Alguns dos núcleos de processamento e aceleradores importantes estudados nesses testes incluem os processadores principais (quatro núcleos ARM A53 a 1.25 GHz), o acelerador de aprendizado profundo (C7x-MMA a 850 MHz), o VPAC (ISP) com VISS e multiescaladores (MSC0 e MSC1) e operações DDR.
A Tabela 5-1 mostra o desempenho e a utilização de recursos ao usar o AM62A com quatro câmeras para três casos de uso, incluindo streaming de quatro câmeras para um monitor, streaming pela Ethernet e gravação em quatro câmeras separadas. files. Dois testes são implementados em cada caso de uso: apenas com a câmera e com inferência de aprendizado profundo. Além disso, a primeira linha na Tabela 5-1 mostra as utilizações de hardware quando apenas o sistema operacional estava em execução no AM62A sem nenhum aplicativo de usuário. Isso é usado como uma linha de base para comparação ao avaliar as utilizações de hardware dos outros casos de teste. Conforme mostrado na tabela, as quatro câmeras com aprendizado profundo e exibição na tela operaram a 30 FPS cada, com um total de 120 FPS para as quatro câmeras. Essa alta taxa de quadros é alcançada com apenas 86% da capacidade total do acelerador de aprendizado profundo (C7x-MMA). Além disso, é importante observar que o acelerador de aprendizado profundo foi sincronizado a 850 MHz em vez de 1000 MHz nesses experimentos, o que representa apenas 85% de seu desempenho máximo.
Tabela 5-1. Desempenho (FPS) e utilização de recursos do AM62A quando usado com 4 câmeras IMX219 para exibição em tela, transmissão Ethernet, gravação em Files e realizando inferências de aprendizado profundo
Aplicação n | Gasoduto (operação
) |
Saída | FPS pipeline médio s | FPS
total |
MPUs A53s @ 1.25
GHz [%] |
MCU R5 [%] | DLA (C7x-MMA) @ 850
MHz [%] |
VISS [%] | MSC0 [%] | MSC1 [%] | RDA
Rd [MB/s] |
RDA
Wr [MB/s] |
RDA
Total [MB/s] |
Nenhum aplicativo | Linha de base Sem operação | NA | NA | NA | 1.87 | 1 | 0 | 0 | 0 | 0 | 560 | 19 | 579 |
Câmera apenas | Fluxo para a tela | Tela | 30 | 120 | 12 | 12 | 0 | 70 | 61 | 60 | 1015 | 757 | 1782 |
Transmita pela Ethernet | UDP: 4
portas 1920×1080 |
30 | 120 | 23 | 6 | 0 | 70 | 0 | 0 | 2071 | 1390 | 3461 | |
Registro para files | 4 files 1920×1080 | 30 | 120 | 25 | 3 | 0 | 70 | 0 | 0 | 2100 | 1403 | 3503 | |
Câmera com aprendizado profundo | Aprendizado profundo: Detecção de objetos MobV1- coco | Tela | 30 | 120 | 38 | 25 | 86 | 71 | 85 | 82 | 2926 | 1676 | 4602 |
Aprendizado profundo: Detecção de objetos MobV1- coco e Stream over Ethernet | UDP: 4
portas 1920×1080 |
28 | 112 | 84 | 20 | 99 | 66 | 65 | 72 | 4157 | 2563 | 6720 | |
Aprendizado profundo: Detecção de objetos MobV1- coco e registro para files | 4 files 1920×1080 | 28 | 112 | 87 | 22 | 98 | 75 | 82 | 61 | 2024 | 2458 | 6482 |
Resumo
Este relatório de aplicação descreve como implementar aplicações multicâmera na família de dispositivos AM6x. Um projeto de referência baseado no Kit de Solução de Câmera V3Link da Arducam e no AM62A SK EVM é fornecido no relatório, com diversas aplicações de câmera utilizando quatro câmeras IMX219, como streaming e detecção de objetos. Os usuários são incentivados a adquirir o Kit de Solução de Câmera V3Link da Arducam e replicar esses exemplos.ampO relatório também fornece uma análise detalhada do desempenho do AM62A ao usar quatro câmeras em várias configurações, incluindo exibição em uma tela, streaming via Ethernet e gravação em files. Ele também demonstra a capacidade do AM62A de realizar inferência de aprendizado profundo em quatro fluxos de câmera separados em paralelo. Se houver alguma dúvida sobre a execução desses examples, envie uma consulta no fórum TI E2E.
Referências
- Guia de início rápido do kit inicial EVM AM62A
- Guia de início rápido da solução de câmera ArduCam V3Link
- Documentação do Edge AI SDK para AM62A
- Câmeras inteligentes Edge AI com processador AM62A de baixo consumo de energia
- Sistemas de espelho de câmera no AM62A
- Sistemas de monitoramento de motorista e ocupação no AM62A
- Aplicação de câmera quádrupla para surround View e sistemas de câmeras CMS
- AM62Ax Linux Academy sobre como habilitar o sensor CIS-2
- Modelo Edge AI Zoo
- Estúdio Edge AI
- Ferramenta Perf_stats
Peças da TI mencionadas nesta nota de aplicação:
- https://www.ti.com/product/AM62A7
- https://www.ti.com/product/AM62A7-Q1
- https://www.ti.com/product/AM62A3
- https://www.ti.com/product/AM62A3-Q1
- https://www.ti.com/product/AM62P
- https://www.ti.com/product/AM62P-Q1
- https://www.ti.com/product/DS90UB960-Q1
- https://www.ti.com/product/DS90UB953-Q1
- https://www.ti.com/product/TDES960
- https://www.ti.com/product/TSER953
AVISO IMPORTANTE E ISENÇÃO DE RESPONSABILIDADE
A TI FORNECE DADOS TÉCNICOS E DE CONFIABILIDADE (INCLUINDO FICHAS DE DADOS), RECURSOS DE PROJETO (INCLUINDO DESENHOS DE REFERÊNCIA), APLICAÇÃO OU OUTRO CONSELHO DE DESENHO, WEB FERRAMENTAS, INFORMAÇÕES DE SEGURANÇA E OUTROS RECURSOS “COMO ESTÃO” E COM TODAS AS FALHAS, E ISENTA-SE DE TODAS AS GARANTIAS, EXPRESSAS E IMPLÍCITAS, INCLUINDO, SEM LIMITAÇÃO, QUAISQUER GARANTIAS IMPLÍCITAS DE COMERCIABILIDADE, ADEQUAÇÃO A UM DETERMINADO FIM OU NÃO VIOLAÇÃO DE DIREITOS DE PROPRIEDADE INTELECTUAL DE TERCEIROS .
Esses recursos são destinados a desenvolvedores qualificados que projetam com produtos da TI. Você é o único responsável por
- selecionando os produtos de TI apropriados para sua aplicação,
- projetar, validar e testar seu aplicativo, e
- garantindo que seu aplicativo atenda aos padrões aplicáveis e quaisquer outros requisitos de segurança, proteção, regulamentação ou outros.
Estes recursos estão sujeitos a alterações sem aviso prévio. A TI permite que você utilize estes recursos apenas para o desenvolvimento de um aplicativo que utilize os produtos da TI descritos no recurso. Qualquer outra reprodução e exibição destes recursos é proibida. Nenhuma licença é concedida a qualquer outro direito de propriedade intelectual da TI ou a qualquer direito de propriedade intelectual de terceiros. A TI se isenta de responsabilidade por quaisquer reivindicações, danos, custos, perdas e responsabilidades decorrentes do uso destes recursos, e você indenizará integralmente a TI e seus representantes.
Os produtos da TI são fornecidos sujeitos aos Termos de Venda da TI ou a outros termos aplicáveis disponíveis em com você ou fornecidos em conjunto com tais produtos TI. O fornecimento desses recursos pela TI não expande ou altera as garantias aplicáveis da TI ou isenções de garantia para produtos da TI.
A TI se opõe e rejeita quaisquer termos adicionais ou diferentes que você possa ter proposto.
AVISO IMPORTANTE
- Endereço para correspondência: Texas Instruments, Post Office Box 655303, Dallas, Texas 75265
- Direitos autorais © 2024, Texas Instruments Incorporated
Perguntas frequentes
P: Posso usar qualquer tipo de câmera com a família de dispositivos AM6x?
A família AM6x suporta diferentes tipos de câmeras, incluindo aquelas com ou sem ISP integrado. Consulte as especificações para obter mais detalhes sobre os tipos de câmeras compatíveis.
:Quais são as principais diferenças entre AM62A e AM62P no processamento de imagens?
As principais variações incluem os tipos de câmera suportados, os dados de saída da câmera, a presença de HWA de ISP, HWA de Aprendizado Profundo e HWA de Gráficos 3D. Consulte a seção de especificações para uma comparação detalhada.
Documentos / Recursos
![]() |
Texas Instruments AM6x revelando múltiplas câmeras [pdf] Guia do Usuário AM62A, AM62P, AM6x Revelação de múltiplas câmeras, AM6x, Revelação de múltiplas câmeras, múltiplas câmeras, câmera |