Texas Instruments AM6x Desenvolvemento de varias cámaras
Especificacións
- Nome do produto: Familia de dispositivos AM6x
- Tipo de cámara compatible: AM62A (con ou sen ISP integrado), AM62P (con ISP integrado)
- Datos de saída da cámara: AM62A (Raw/YUV/RGB), AM62P (YUV/RGB)
- ISP HWA: AM62A (Si), AM62P (Non)
- HWA de aprendizaxe profunda: AM62A (Si), AM62P (Non)
- Gráficos 3D HWA: AM62A (Non), AM62P (Si)
Introdución ás aplicacións de varias cámaras en AM6x:
- As cámaras integradas xogan un papel crucial nos sistemas de visión modernos.
- O uso de varias cámaras nun sistema mellora as capacidades e permite tarefas que non se poderían realizar cunha soa cámara.
Aplicacións que usan varias cámaras:
- Vixilancia de seguridade: Mellora a cobertura de vixilancia, o seguimento de obxectos e a precisión do recoñecemento.
- Envolvente View: Habilita a visión estereoscópica para tarefas como a detección de obstáculos e a manipulación de obxectos.
- Gravador de cabina e sistema de espellos con cámara: Ofrece unha cobertura prolongada e elimina os puntos cegos.
- Imaxe médica: Ofrece unha maior precisión na navegación cirúrxica e na endoscopia.
- Drons e imaxes aéreas: Captura imaxes de alta resolución desde diferentes ángulos para diversas aplicacións.
Conexión de varias cámaras CSI-2 ao SoC:
Para conectar varias cámaras CSI-2 ao SoC, siga as instrucións que se proporcionan no manual do usuario. Asegúrese de que cada cámara estea aliñada e conectada correctamente aos portos designados do SoC.
Nota de aplicación
Desenvolvemento de aplicacións para varias cámaras en AM6x
Jianzhong Xu, Qutaiba Saleh
RESUMO
Este informe describe o desenvolvemento de aplicacións empregando varias cámaras CSI-2 na familia de dispositivos AM6x. Preséntase un deseño de referencia de detección de obxectos con aprendizaxe profunda en 4 cámaras no SoC AM62A xunto cunha análise do rendemento. Os principios xerais do deseño aplícanse a outros SoC cunha interface CSI-2, como o AM62x e o AM62P.
Introdución
As cámaras integradas desempeñan un papel importante nos sistemas de visión modernos. O uso de varias cámaras nun sistema amplía as capacidades destes sistemas e permite funcións que non son posibles cunha soa cámara. A continuación móstranse algúns exemplos.ampun conxunto de aplicacións que empregan varias cámaras integradas:
- Vixilancia de seguridade: Varias cámaras colocadas estratexicamente proporcionan unha cobertura de vixilancia integral. Permiten panorámicas views, reducir os puntos cegos e mellorar a precisión do seguimento e recoñecemento de obxectos, mellorando as medidas de seguridade xerais.
- Envolvente ViewEmpréganse varias cámaras para crear unha configuración de visión estéreo, o que permite obter información tridimensional e estimar a profundidade. Isto é crucial para tarefas como a detección de obstáculos en vehículos autónomos, a manipulación precisa de obxectos en robótica e o realismo mellorado das experiencias de realidade aumentada.
- Gravador de cabina e sistema de espellos de cámara: Un gravador de cabina de coche con varias cámaras pode proporcionar máis cobertura usando un único procesador. Do mesmo xeito, un sistema de espellos de cámara con dúas ou máis cámaras pode ampliar o campo de visión do condutor. view e eliminar os puntos cegos de todos os lados dun coche.
- Imaxe médica: Na imaxe médica pódense empregar varias cámaras para tarefas como a navegación cirúrxica, o que lles proporciona aos cirurxiáns múltiples perspectivas para unha maior precisión. Na endoscopia, varias cámaras permiten un exame exhaustivo dos órganos internos.
- Drons e imaxes aéreas: Os drons adoitan vir equipados con varias cámaras para capturar imaxes ou vídeos de alta resolución desde diferentes ángulos. Isto é útil en aplicacións como a fotografía aérea, a monitorización agrícola e a topografía.
- Co avance dos microprocesadores, pódense integrar varias cámaras nun único sistema en chip.
(SoC) para proporcionar solucións compactas e eficientes. O SoC AM62Ax, con procesamento de vídeo/visión de alto rendemento e aceleración de aprendizaxe profunda, é un dispositivo ideal para os casos de uso mencionados anteriormente. Outro dispositivo AM6x, o AM62P, está deseñado para aplicacións de visualización 3D integrada de alto rendemento. Equipado con aceleración de gráficos 3D, o AM62P pode unir facilmente as imaxes de varias cámaras e producir unha panorámica de alta resolución. viewAs características innovadoras do SoC AM62A/AM62P foron presentadas en varias publicacións, como [4], [5], [6], etc. Esta nota de aplicación non repetirá as descricións desas características, senón que se centrará na integración de varias cámaras CSI-2 en aplicacións de visión integradas en AM62A/AM62P. - A táboa 1-1 mostra as principais diferenzas entre o AM62A e o AM62P no que respecta ao procesamento de imaxes.
Táboa 1-1. Diferenzas entre AM62A e AM62P no procesamento de imaxes
SoC | AM62A | AM62P |
Tipo de cámara compatible | Con ou sen un ISP integrado | Con ISP integrado |
Datos de saída da cámara | Raw/YUV/RGB | YUV/RGB |
ISP HWA | Si | Non |
Aprendizaxe profunda HWA | Si | Non |
Gráficos 3D HWA | Non | Si |
Conexión de varias cámaras CSI-2 ao SoC
O subsistema de cámaras do SoC AM6x contén os seguintes compoñentes, como se mostra na Figura 2-1:
- Receptor MIPI D-PHY: recibe fluxos de vídeo de cámaras externas, admitindo ata 1.5 Gbps por canle de datos para 4 canles.
- Receptor CSI-2 (RX): recibe fluxos de vídeo do receptor D-PHY e envíaos directamente ao ISP ou descarga os datos na memoria DDR. Este módulo admite ata 16 canles virtuais.
- SHIM: un encapsulador DMA que permite enviar os fluxos capturados á memoria a través de DMA. Este encapsulador pode crear varios contextos DMA, e cada contexto corresponde a unha canle virtual do receptor CSI-2.
O AM6x pode admitir varias cámaras mediante o uso de canles virtuais de CSI-2 RX, mesmo que só haxa unha interface CSI-2 RX no SoC. Necesítase un compoñente de agregación CSI-2 externo para combinar varios fluxos de cámara e envialos a un único SoC. Pódense usar dous tipos de solucións de agregación CSI-2, que se describen nas seguintes seccións.
Agregador CSI-2 usando SerDes
Unha forma de combinar varios fluxos de cámara é usar unha solución de serialización e deserialización (SerDes). Os datos CSI-2 de cada cámara son convertidos por un serializador e transferidos a través dun cable. O deserializador recibe todos os datos serializados transferidos dos cables (un cable por cámara), converte os fluxos de volta a datos CSI-2 e, a seguir, envía un fluxo CSI-2 entrelazado á única interface CSI-2 RX no SoC. Cada fluxo de cámara identifícase mediante un canal virtual único. Esta solución de agregación ofrece a vantaxe adicional de permitir unha conexión a longa distancia de ata 15 m desde as cámaras ata o SoC.
Os serializadores e deserializadores (SerDes) FPD-Link ou V3-Link, compatibles co SDK de Linux AM6x, son as tecnoloxías máis populares para este tipo de solución de agregación CSI-2. Tanto os deserializadores FPD-Link como os V3-Link teñen canles de retorno que se poden usar para enviar sinais de sincronización de fotogramas para sincronizar todas as cámaras, como se explica en [7].
A figura 2-2 mostra un exampde usar os SerDes para conectar varias cámaras a un único SoC AM6x.
Un exampUnha parte desta solución de agregación pódese atopar no kit de solución de cámara Arducam V3Link. Este kit ten un centro deserializador que agrega 4 fluxos de cámara CSI-2, así como 4 pares de serializadores V3link e cámaras IMX219, incluíndo cables coaxiais FAKRA e cables FPC de 22 pines. O deseño de referencia que se describe máis adiante baséase neste kit.
Agregador CSI-2 sen usar SerDes
Este tipo de agregador pode interactuar directamente con varias cámaras MIPI CSI-2 e agregar os datos de todas as cámaras a un único fluxo de saída CSI-2.
A figura 2-3 mostra un example dun sistema deste tipo. Este tipo de solución de agregación non usa ningún serializador/deserializador, pero está limitada pola distancia máxima de transferencia de datos CSI-2, que é de ata 30 cm. O SDK de Linux AM6x non admite este tipo de agregador CSI-2.
Activación de varias cámaras no software
Arquitectura de software do subsistema de cámara
A figura 3-1 mostra un diagrama de bloques de alto nivel do software do sistema de captura de cámara no SDK de Linux AM62A/AM62P, correspondente ao sistema HW da figura 2-2.
- Esta arquitectura de software permite que o SoC reciba múltiples fluxos de cámara co uso de SerDes, como se mostra na Figura 2-2. O SerDes de FPD-Link/V3-Link asigna un enderezo I2C único e un canal virtual a cada cámara. Deberíase crear unha superposición de árbore de dispositivos única co enderezo I2C único para cada cámara. O controlador CSI-2 RX recoñece cada cámara usando o número de canal virtual único e crea un contexto DMA por fluxo de cámara. Créase un nodo de vídeo para cada contexto DMA. Os datos de cada cámara recíbense e almacénanse mediante DMA na memoria en consecuencia. As aplicacións do espazo de usuario usan os nodos de vídeo correspondentes a cada cámara para acceder aos datos da cámara. Ex.ampAs formas de usar esta arquitectura de software danse no capítulo 4: Deseño de referencia.
- Calquera controlador de sensor específico que sexa compatible co marco V4L2 pode conectarse e usarse nesta arquitectura. Consulta [8] para obter información sobre como integrar un novo controlador de sensor no SDK de Linux.
Arquitectura de software de canalización de imaxes
- O SDK de Linux AM6x proporciona a estrutura GStreamer (GST), que se pode usar no espazo ser para integrar os compoñentes de procesamento de imaxes para diversas aplicacións. Os aceleradores de hardware (HWA) do SoC, como o acelerador de preprocesamento de visión (VPAC) ou ISP, o codificador/descodificador de vídeo e o motor de computación de aprendizaxe profunda, accédese a través de GST. pluginsO propio VPAC (ISP) ten varios bloques, incluíndo o Subsistema de Imaxes de Visión (VISS), a Corrección da Distorsión da Lente (LDC) e o Multiscalar (MSC), cada un correspondente a un complemento GST.
- A figura 3-2 mostra o diagrama de bloques dunha canalización de imaxes típica desde a cámara ata a codificación ou a captura profunda.
aplicacións de aprendizaxe en AM62A. Para obter máis detalles sobre o fluxo de datos de extremo a extremo, consulte a documentación do SDK de EdgeAI.
Para o AM62P, a canle de imaxes é máis sinxela porque non hai ningún ISP no AM62P.
Cun nodo de vídeo creado para cada unha das cámaras, a canle de imaxes baseada en GStreamer permite o procesamento de varias entradas de cámara (conectadas a través da mesma interface CSI-2 RX) simultaneamente. No seguinte capítulo ofrécese un deseño de referencia que usa GStreamer para aplicacións multicámara.
Deseño de referencia
Este capítulo presenta un deseño de referencia para executar aplicacións con varias cámaras nun EVM AM62A, empregando o kit de solucións de cámaras Arducam V3Link para conectar 4 cámaras CSI-2 ao AM62A e executar a detección de obxectos para as 4 cámaras.
Cámaras compatibles
O kit Arducam V3Link funciona tanto con cámaras baseadas en FPD-Link/V3-Link como con cámaras CSI-2 compatibles con Raspberry Pi. Probáronse as seguintes cámaras:
- Enxeñaría D3 D3RCM-IMX390-953
- Imaxe de leopardo LI-OV2312-FPDLINKIII-110H
- Cámaras IMX219 no kit de solución de cámara Arducam V3Link
Configuración de catro cámaras IMX219
Siga as instrucións proporcionadas na Guía de inicio rápido do kit de inicio AM62A EVM para configurar o SK-AM62A-LP EVM (AM62A SK) e a Guía de inicio rápido da solución de cámara ArduCam V3Link para conectar as cámaras ao AM62A SK a través do kit V3Link. Asegúrese de que os pines dos cables flexibles, as cámaras, a placa V3Link e o AM62A SK estean aliñados correctamente.
A figura 4-1 mostra a configuración empregada para o deseño de referencia neste informe. Os compoñentes principais da configuración inclúen:
- 1 placa EVM SK-AM62A-LP
- 1 placa adaptadora de canal d para Arducam V3Link
- Cable FPC que conecta o Arducam V3Link ao SK-AM62A
- 4 adaptadores de cámara V3Link (serializadores)
- 4 cables coaxiais RF para conectar serializadores V3Link ao kit de canais d V3Link
- 4 cámaras IMX219
- 4 cables CSI-2 de 22 pines para conectar cámaras a serializadores
- Cables: cable HDMI, USB-C para alimentar o SK-AM62A-LP e fonte de alimentación de 12 V para o kit de canle d V3Link)
- Outros compoñentes que non se mostran na Figura 4-1: tarxeta micro-SD, cable micro-USB para acceder a SK-AM62A-LP e Ethernet para a transmisión en tempo real
Configuración de cámaras e interface CSI-2 RX
Configura o software segundo as instrucións proporcionadas na Guía de inicio rápido de Arducam V3Link. Despois de executar o script de configuración da cámara, configurarase correctamente setup-imx219.sh, o formato da cámara, o formato da interface CSI-2 RX e as rutas desde cada cámara ata o nodo de vídeo correspondente. Créanse catro nodos de vídeo para as catro cámaras IMX219. O comando “v4l2-ctl –list-devices” mostra todos os dispositivos de vídeo V4L2, como se mostra a continuación:
Hai 6 nodos de vídeo e 1 nodo multimedia en tiscsi2rx. Cada nodo de vídeo corresponde a un contexto DMA asignado polo controlador CSI2 RX. Dos 6 nodos de vídeo, 4 úsanse para as 4 cámaras IMX219, como se mostra na topoloxía da canle multimedia a continuación:
Como se mostra arriba, a entidade multimedia 30102000.ticsi2rx ten 6 almofadas de orixe, pero só se usan as 4 primeiras, cada unha para un IMX219. A topoloxía da tubaxe multimedia tamén se pode ilustrar graficamente. Executa o seguinte comando para xerar un punto file:
Despois executa o comando seguinte nun PC anfitrión Linux para xerar un PNG file:
A figura 4-2 é unha imaxe xerada cos comandos indicados anteriormente. Os compoñentes da arquitectura de software da figura 3-1 pódense atopar neste gráfico.
Transmisión desde catro cámaras
Co hardware e o software configurados correctamente, as aplicacións con varias cámaras poden executarse desde o espazo do usuario. Para o AM62A, o ISP debe estar axustado para producir unha boa calidade de imaxe. Consulte a Guía de axuste do ISP do AM6xA para obter información sobre como realizar o axuste do ISP. As seguintes seccións presentan exemplosampficheiros de transmisión de datos da cámara a unha pantalla, transmisión de datos da cámara a unha rede e almacenamento dos datos da cámara en files.
Transmisión de datos da cámara á pantalla
Unha aplicación básica deste sistema multicámara é transmitir os vídeos de todas as cámaras a unha pantalla conectada ao mesmo SoC. O seguinte é un exemplo de canle de GStreamerampde transmitir catro IMX219 a unha pantalla (os números de nodos de vídeo e os números de subdev v4l na canle probablemente cambiarán de reinicio a reinicio).
Transmisión de datos da cámara a través de Ethernet
En lugar de transmitir a unha pantalla conectada ao mesmo SoC, os datos da cámara tamén se poden transmitir a través de Ethernet. O lado receptor pode ser outro procesador AM62A/AM62P ou un PC anfitrión. O seguinte é un exemploampxeito de transmitir os datos da cámara a través de Ethernet (usando dúas cámaras para simplificar) (teña en conta o complemento do codificador usado na canle):
O seguinte é un exampxeito de recibir os datos da cámara e transmitilos a unha pantalla noutro procesador AM62A/AM62P:
Almacenamento de datos da cámara en Files
En lugar de transmitilos a unha pantalla ou a través dunha rede, os datos da cámara pódense almacenar localmente files. A canle seguinte almacena os datos de cada cámara nun file (usando dúas cámaras como exemplo)ample para simplificar).
Inferencia de aprendizaxe profunda multicámara
O AM62A está equipado cun acelerador de aprendizaxe profunda (C7x-MMA) con ata dous TOPS, que son capaces de executar varios tipos de modelos de aprendizaxe profunda para clasificación, detección de obxectos, segmentación semántica e moito máis. Esta sección mostra como o AM62A pode executar simultaneamente catro modelos de aprendizaxe profunda en catro fontes de cámara diferentes.
Selección de modelos
EdgeAI-ModelZoo de TI ofrece centos de modelos de última xeración, que se converten/exportan dos seus marcos de adestramento orixinais a un formato compatible con integración para que se poidan descargar ao acelerador de aprendizaxe profunda C7x-MMA. O analizador de modelos Edge AI Studio baseado na nube proporciona unha ferramenta de "selección de modelos" fácil de usar. Actualízase dinamicamente para incluír todos os modelos compatibles con TI EdgeAI-ModelZoo. A ferramenta non require experiencia previa e proporciona unha interface fácil de usar para introducir as características requiridas no modelo desexado.
O TFL-OD-2000-ssd-mobV1-coco-mlperf foi seleccionado para este experimento de aprendizaxe profunda multicámara. Este modelo de detección de varios obxectos está desenvolvido no marco TensorFlow cunha resolución de entrada de 300×300. A táboa 4-1 mostra as características importantes deste modelo cando se adestra no conxunto de datos cCOCO con arredor de 80 clases diferentes.
Táboa 4-1. Características destacadas do modelo TFL-OD-2000-ssd-mobV1-coco-mlperf.
Modelo | Tarefa | Resolución | FPS | mAP 50%
Precisión en COCO |
Latencia/fotograma (ms) | DDR BW
Utilización (MB/fotograma) |
TFL-OD-2000-ssd-
mobV1-coco-mlperf |
Detección de varios obxectos | 300×300 | ~152 | 15.9 | 6.5 | 18.839 |
Configuración da canalización
A figura 4-3 mostra a canle de aprendizaxe profunda de GStreamer de 4 cámaras. TI proporciona un conxunto de GStreamer plugins que permiten descargar parte do procesamento multimedia e a inferencia de aprendizaxe profunda aos aceleradores de hardware. Algúns exemplosampos destes plugins inclúen tiovxisp, tiovxmultiscaler, tiovxmosaic e tidlinferer. A canle da Figura 4-3 inclúe todo o necesario plugins para unha canle GStreamer multirruta para entradas de 4 cámaras, cada unha con preprocesamento multimedia, inferencia de aprendizaxe profunda e posprocesamento. O duplicado plugins para cada unha das rutas da cámara están apiladas no gráfico para facilitar a demostración.
Os recursos de hardware dispoñibles distribúense uniformemente entre as catro rutas de cámara. Por exemplo, AM62A contén dous multiescaladores de imaxes: MSC0 e MSC1. A canle dedica explicitamente MSC0 a procesar as rutas da cámara 1 e da cámara 2, mentres que MSC1 está dedicado á cámara 3 e á cámara 4.
A saída das catro canles de cámaras redúcese e concatenase mediante o complemento tiovxmosaic. A saída móstrase nunha única pantalla. A figura 4-4 mostra a saída das catro cámaras cun modelo de aprendizaxe profunda que executa a detección de obxectos. Cada canle (cámara) funciona a 30 FPS e un total de 120 FPS.
A continuación móstrase o script completo da canle para o caso de uso de aprendizaxe profunda multicámara que se mostra na Figura 4-3.
Análise do rendemento
A configuración con catro cámaras usando a placa V3Link e o AM62A SK probouse en varios escenarios de aplicación, incluíndo a visualización directa nunha pantalla, a transmisión por Ethernet (catro canles UDP), a gravación en 4 canles separadas files, e con inferencia de aprendizaxe profunda. En cada experimento, monitorizamos a taxa de fotogramas e a utilización dos núcleos da CPU para explorar as capacidades de todo o sistema.
Como se mostrou anteriormente na Figura 4-4, a canle de aprendizaxe profunda usa o complemento tiperfoverlay de GStreamer para mostrar as cargas do núcleo da CPU como un gráfico de barras na parte inferior da pantalla. Por defecto, o gráfico actualízase cada dous segundos para mostrar as cargas como unha porcentaxe de utilización.tage. Ademais do complemento tiperfoverlay de GStreamer, a ferramenta perf_stats é unha segunda opción para mostrar o rendemento do núcleo directamente no terminal cunha opción para gardar nun fileEsta ferramenta é máis precisa en comparación coa superposición de tTiperfo, xa que esta última engade unha carga adicional aos núcleos ARMm e á DDR para debuxar o gráfico e superpoñelo na pantalla. A ferramenta perf_stats úsase principalmente para recoller os resultados da utilización do hardware en todos os casos de proba que se mostran neste documento. Algúns dos núcleos de procesamento e aceleradores importantes estudados nestas probas inclúen os procesadores principais (catro núcleos Arm A53 a 1.25 GHz), o acelerador de aprendizaxe profunda (C7x-MMA a 850 MHz), o VPAC (ISP) con VISS e multiescaladores (MSC0 e MSC1) e as operacións DDR.
A táboa 5-1 mostra o rendemento e a utilización de recursos ao usar AM62A con catro cámaras para tres casos de uso, incluíndo a transmisión de catro cámaras a unha pantalla, a transmisión por Ethernet e a gravación en catro dispositivos separados. files. Implementáronse dúas probas en cada caso de uso: só coa cámara e con inferencia de aprendizaxe profunda. Ademais, a primeira fila da Táboa 5-1 mostra as utilizacións do hardware cando só o sistema operativo se executaba en AM62A sen ningunha aplicación de usuario. Isto utilízase como liña de base para comparar ao avaliar as utilizacións do hardware dos outros casos de proba. Como se mostra na táboa, as catro cámaras con aprendizaxe profunda e visualización en pantalla funcionaron a 30 FPS cada unha, cun total de 120 FPS para as catro cámaras. Esta alta taxa de fotogramas conséguese con só o 86 % da capacidade total do acelerador de aprendizaxe profunda (C7x-MMA). Ademais, é importante ter en conta que o acelerador de aprendizaxe profunda funcionou a 850 MHz en lugar de 1000 MHz nestes experimentos, o que supón só o 85 % do seu rendemento máximo.
Táboa 5-1. Rendemento (FPS) e utilización de recursos do AM62A cando se usa con 4 cámaras IMX219 para visualización en pantalla, transmisión por Ethernet e gravación en Files e realizando inferencias de aprendizaxe profunda
Aplicación n | Gasoduto (operación
) |
Saída | FPS canalización media | FPS
total |
MPU A53s a 1.25
GHz [%] |
MCU R5 [%] | DLA (C7x-MMA) a 850
MHz [%] |
VISS [%] | MSC0 [%] | MSC1 [%] | DDR
Rd [MB/s] |
DDR
Wr [MB/s] |
DDR
Total [MB/s] |
Sen aplicación | Liña de base Sen operación | NA | NA | NA | 1.87 | 1 | 0 | 0 | 0 | 0 | 560 | 19 | 579 |
Cámara só | Fluxo á pantalla | Pantalla | 30 | 120 | 12 | 12 | 0 | 70 | 61 | 60 | 1015 | 757 | 1782 |
Transmisión por Ethernet | PDU: 4
portos 1920×1080 |
30 | 120 | 23 | 6 | 0 | 70 | 0 | 0 | 2071 | 1390 | 3461 | |
Gravar a files | 4 file1920×1080 | 30 | 120 | 25 | 3 | 0 | 70 | 0 | 0 | 2100 | 1403 | 3503 | |
Cam con aprendizaxe profunda | Aprendizaxe profunda: Detección de obxectos MobV1-coco | Pantalla | 30 | 120 | 38 | 25 | 86 | 71 | 85 | 82 | 2926 | 1676 | 4602 |
Aprendizaxe profunda: detección de obxectos MobV1-coco e transmisión por Ethernet | PDU: 4
portos 1920×1080 |
28 | 112 | 84 | 20 | 99 | 66 | 65 | 72 | 4157 | 2563 | 6720 | |
Aprendizaxe profunda: detección de obxectos MobV1- coco e rexistro para files | 4 file1920×1080 | 28 | 112 | 87 | 22 | 98 | 75 | 82 | 61 | 2024 | 2458 | 6482 |
Resumo
Este informe de aplicación describe como implementar aplicacións multicámara na familia de dispositivos AM6x. No informe ofrécese un deseño de referencia baseado no kit de solución de cámara V3Link de Arducam e no EVM AM62A SK, con varias aplicacións de cámara que empregan catro cámaras IMX219, como a transmisión e a detección de obxectos. Anímase aos usuarios a adquirir o kit de solución de cámara V3Link de Arducam e replicar estes exemplos.amples. O informe tamén ofrece unha análise detallada do rendemento de AM62A mentres usa catro cámaras en varias configuracións, incluíndo a visualización nunha pantalla, a transmisión por Ethernet e a gravación en fileTamén mostra a capacidade de AM62A para realizar inferencias de aprendizaxe profunda en catro fluxos de cámara separados en paralelo. Se tes algunha dúbida sobre a execución destes exemplosamples, envía unha consulta no foro TI E2E.
Referencias
- Guía de inicio rápido do kit de inicio do AM62A EVM
- Guía de inicio rápido da solución de cámara ArduCam V3Link
- Documentación do SDK de IA de Edge para AM62A
- Cámaras intelixentes con IA de Edge que usan o procesador AM62A de baixo consumo
- Sistemas de espellos de cámara en AM62A
- Sistemas de monitorización de condutores e ocupantes en AM62A
- Aplicación de cámara de catro canles para sons envolventes View e sistemas de cámaras CMS
- Academia AM62Ax de Linux sobre a activación do sensor CIS-2
- Modelo de IA de bordoZoo
- Edge AI Studio
- Ferramenta Perf_stats
Pezas de TI ás que se fai referencia nesta nota de aplicación:
- https://www.ti.com/product/AM62A7
- https://www.ti.com/product/AM62A7-Q1
- https://www.ti.com/product/AM62A3
- https://www.ti.com/product/AM62A3-Q1
- https://www.ti.com/product/AM62P
- https://www.ti.com/product/AM62P-Q1
- https://www.ti.com/product/DS90UB960-Q1
- https://www.ti.com/product/DS90UB953-Q1
- https://www.ti.com/product/TDES960
- https://www.ti.com/product/TSER953
AVISO IMPORTANTE E EXENCIÓN DE RESPONSABILIDADE
TI PROPORCIONA DATOS TÉCNICOS E DE FIABILIDADE (INCLUÍDAS FOLAS DE DATOS), RECURSOS DE DESEÑO (INCLUÍDOS DESEÑOS DE REFERENCIA), APLICACIÓN OU OUTRO CONSELLO DE DESEÑO, WEB FERRAMENTAS, INFORMACIÓN DE SEGURIDADE E OUTROS RECURSOS "TAL CUAL" E CON TODOS OS FALTAS, E RENUNCIA A TODA GARANTÍA, EXPLÍCITA E IMPLÍCITA, INCLUÍENDO SEN LIMITACIÓN CALQUERA GARANTÍA IMPLÍCITA DE COMERCIABILIDADE, IDONEIDADE PARA UN FIN PARTICULAR OU PROPIEDADE NON PROPIEDADE DA PROPIEDADE .
Estes recursos están destinados a desenvolvedores expertos que deseñan con produtos de TI. Vostede é o único responsable de
- seleccionando os produtos TI axeitados para a súa aplicación,
- deseñar, validar e probar a súa aplicación, e
- garantindo que a súa aplicación cumpre as normas aplicables e calquera outro requisito de seguridade, protección, regulamentario ou doutro tipo.
Estes recursos están suxeitos a cambios sen previo aviso. TI permítelle usar estes recursos unicamente para o desenvolvemento dunha aplicación que empregue os produtos de TI descritos no recurso. Prohíbese calquera outra reprodución e visualización destes recursos. Non se concede ningunha licenza para ningún outro dereito de propiedade intelectual de TI nin para ningún dereito de propiedade intelectual de terceiros. TI declina a responsabilidade por calquera reclamación, dano, custo, perda e responsabilidade derivada do uso destes recursos, e vostede indemnizará totalmente a TI e aos seus representantes por elas.
Os produtos de TI ofrécense con suxeición ás Condicións de venda de TI ou a outras condicións aplicables dispoñibles en ti.com ou proporcionados en conxunto con tales produtos de TI. A provisión destes recursos por parte de TI non amplía nin altera de ningún xeito as garantías ou as exencións de responsabilidade aplicables de TI para os produtos de TI.
TI opón e rexeita calquera termo adicional ou diferente que poida ter proposto.
AVISO IMPORTANTE
- Enderezo de correo: Texas Instruments, Post Office Box 655303, Dallas, Texas 75265
- Copyright © 2024, Texas Instruments Incorporated
Preguntas frecuentes
P: Podo usar calquera tipo de cámara coa familia de dispositivos AM6x?
A familia AM6x admite diferentes tipos de cámaras, incluídas as que teñen ou non un ISP integrado. Consulta as especificacións para obter máis detalles sobre os tipos de cámaras compatibles.
Cales son as principais diferenzas entre o AM62A e o AM62P no procesamento de imaxes?
As variacións principais inclúen os tipos de cámara compatibles, os datos de saída da cámara, a presenza de HWA de ISP, HWA de aprendizaxe profunda e HWA de gráficos 3D. Consulta a sección de especificacións para obter unha comparación detallada.
Documentos/Recursos
![]() |
Texas Instruments AM6x Desenvolvemento de varias cámaras [pdfGuía do usuario AM62A, AM62P, AM6x Desenvolvemento de varias cámaras, AM6x, Desenvolvemento de varias cámaras, varias cámaras, cámara |