Texas Instruments AM6x utvikler flere kameraer
Spesifikasjoner
- Produktnavn: AM6x-familien av enheter
- Støttet kameratype: AM62A (med eller uten innebygd ISP), AM62P (med innebygd ISP)
- Kamerautdata: AM62A (Raw/YUV/RGB), AM62P (YUV/RGB)
- Internettleverandørens maskinvare: AM62A (Ja), AM62P (Nei)
- Dyp læringsmaskinvare: AM62A (Ja), AM62P (Nei)
- 3D-grafikk HWA: AM62A (nei), AM62P (ja)
Introduksjon til flerkameraapplikasjoner på AM6x:
- Innebygde kameraer spiller en avgjørende rolle i moderne visjonssystemer.
- Å bruke flere kameraer i et system forbedrer muligheter og muliggjør oppgaver som ikke er mulige med ett enkelt kamera.
Applikasjoner som bruker flere kameraer:
- Sikkerhetsovervåking: Forbedrer overvåkingsdekning, objektsporing og gjenkjenningsnøyaktighet.
- Omgi View: Muliggjør stereosyn for oppgaver som hindringsdeteksjon og objektmanipulering.
- Kabinopptaker og kameraspeilsystem: Gir utvidet dekning og eliminerer blindsoner.
- Medisinsk avbildning: Gir forbedret presisjon i kirurgisk navigasjon og endoskopi.
- Droner og luftfoto: Ta bilder med høy oppløsning fra forskjellige vinkler for ulike bruksområder.
Koble til flere CSI-2-kameraer til SoC-en:
For å koble flere CSI-2-kameraer til SoC-en, følg retningslinjene i brukerhåndboken. Sørg for riktig justering og tilkobling av hvert kamera til de angitte portene på SoC-en.
Søknadsmerknad
Utvikling av flerkameraapplikasjoner på AM6x
Jianzhong Xu, Qutaiba Saleh
ABSTRAKT
Denne rapporten beskriver applikasjonsutvikling ved bruk av flere CSI-2-kameraer på AM6x-familien av enheter. Et referansedesign for objektdeteksjon med dyp læring på 4 kameraer på AM62A SoC presenteres med ytelsesanalyse. Generelle prinsipper for designet gjelder for andre SoC-er med et CSI-2-grensesnitt, for eksempel AM62x og AM62P.
Introduksjon
Innebygde kameraer spiller en viktig rolle i moderne visjonssystemer. Bruk av flere kameraer i et system utvider mulighetene til disse systemene og muliggjør funksjoner som ikke er mulige med et enkelt kamera. Nedenfor er noen eksemplerampLes av applikasjoner som bruker flere innebygde kameraer:
- Sikkerhetsovervåking: Flere kameraer plassert strategisk gir omfattende overvåkingsdekning. De muliggjør panoramautsikt views, redusere blindsoner og forbedre nøyaktigheten av objektsporing og -gjenkjenning, noe som forbedrer de generelle sikkerhetstiltakene.
- Omgi ViewFlere kameraer brukes til å lage et stereobildeoppsett, noe som muliggjør tredimensjonal informasjon og dybdeestimering. Dette er avgjørende for oppgaver som hindringsdeteksjon i autonome kjøretøy, presis objektmanipulering i robotikk og forbedret realisme i utvidet virkelighet-opplevelser.
- Kupéopptaker og kameraspeilsystem: En bilkupéopptaker med flere kameraer kan gi mer dekning ved hjelp av én prosessor. På samme måte kan et kameraspeilsystem med to eller flere kameraer utvide førerens synsfelt. view og eliminere blindsoner fra alle sider av en bil.
- Medisinsk avbildning: Flere kameraer kan brukes i medisinsk avbildning for oppgaver som kirurgisk navigasjon, noe som gir kirurger flere perspektiver for forbedret presisjon. I endoskopi muliggjør flere kameraer en grundig undersøkelse av indre organer.
- Droner og luftfoto: Droner er ofte utstyrt med flere kameraer for å ta bilder eller videoer i høy oppløsning fra forskjellige vinkler. Dette er nyttig i bruksområder som luftfoto, landbruksovervåking og landmåling.
- Med utviklingen av mikroprosessorer kan flere kameraer integreres i én System-on-Chip.
(SoC) for å tilby kompakte og effektive løsninger. AM62Ax SoC, med høy ytelse for video-/bildebehandling og dyp læringsakselerasjon, er en ideell enhet for de ovennevnte bruksområdene. En annen AM6x-enhet, AM62P, er bygget for høytytende innebygde 3D-skjermapplikasjoner. Utstyrt med 3D-grafikkakselerasjon kan AM62P enkelt sette sammen bilder fra flere kameraer og produsere et panoramabilde med høy oppløsning. viewDe innovative funksjonene til AM62A/AM62P SoC har blitt presentert i diverse publikasjoner, som [4], [5], [6] osv. Dette applikasjonsnotatet vil ikke gjenta disse funksjonsbeskrivelsene, men fokuserer i stedet på å integrere flere CSI-2-kameraer i innebygde visjonsapplikasjoner på AM62A/AM62P. - Tabell 1-1 viser hovedforskjellene mellom AM62A og AM62P når det gjelder bildebehandling.
Tabell 1-1. Forskjeller mellom AM62A og AM62P i bildebehandling
SoC | AM62A | AM62P |
Støttet kameratype | Med eller uten innebygd internettleverandør | Med innebygd internettleverandør |
Kamerautgangsdata | Rå/YUV/RGB | YUV/RGB |
Internettleverandørens maskinvare | Ja | Ingen |
Dyp læringsmaskinvare | Ja | Ingen |
3D-grafikk HWA | Ingen | Ja |
Koble flere CSI-2-kameraer til SoC-en
Kameraundersystemet på AM6x SoC inneholder følgende komponenter, som vist i figur 2-1:
- MIPI D-PHY-mottaker: mottar videostrømmer fra eksterne kameraer, og støtter opptil 1.5 Gbps per datafelt for 4 baner.
- CSI-2-mottaker (RX): mottar videostrømmer fra D-PHY-mottakeren og sender enten strømmene direkte til internettleverandøren eller dumper dataene til DDR-minne. Denne modulen støtter opptil 16 virtuelle kanaler.
- SHIM: en DMA-wrapper som gjør det mulig å sende de innsamlede strømmene til minnet over DMA. Denne wrapperen kan opprette flere DMA-kontekster, der hver kontekst tilsvarer en virtuell kanal på CSI-2-mottakeren.
Flere kameraer kan støttes på AM6x ved bruk av virtuelle kanaler i CSI-2 RX, selv om det bare er ett CSI-2 RX-grensesnitt på SoC-en. En ekstern CSI-2-aggregeringskomponent er nødvendig for å kombinere flere kamerastrømmer og sende dem til en enkelt SoC. To typer CSI-2-aggregeringsløsninger kan brukes, beskrevet i de følgende avsnittene.
CSI-2-aggregator som bruker SerDes
En måte å kombinere flere kamerastrømmer på er å bruke en serialiserings- og deserialiseringsløsning (SerDes). CSI-2-dataene fra hvert kamera konverteres av en serialiserer og overføres via en kabel. Deserialiseringsenheten mottar alle serialiserte data overført fra kablene (én kabel per kamera), konverterer strømmene tilbake til CSI-2-data og sender deretter ut en sammenflettet CSI-2-strøm til det enkle CSI-2 RX-grensesnittet på SoC-en. Hver kamerastrøm identifiseres av en unik virtuell kanal. Denne aggregeringsløsningen tilbyr den ekstra fordelen at den tillater langdistansetilkobling på opptil 15 meter fra kameraene til SoC-en.
FPD-Link- eller V3-Link-serialiserings- og deserialiseringsprogrammene (SerDes), som støttes i AM6x Linux SDK, er de mest populære teknologiene for denne typen CSI-2-aggregeringsløsning. Både FPD-Link- og V3-Link-deserialiseringsprogrammene har bakkanaler som kan brukes til å sende bildesynkroniseringssignaler for å synkronisere alle kameraene, som forklart i [7].
Figur 2-2 viser et eksampMuligheten for å bruke SerDes til å koble flere kameraer til én AM6x SoC.
En eksampDel av denne aggregeringsløsningen finnes i Arducam V3Link Camera Solution Kit. Dette settet har en deserialiseringshub som aggregerer 4 CSI-2-kamerastrømmer, samt 4 par V3link-serialiseringsenheter og IMX219-kameraer, inkludert FAKRA-koaksialkabler og 22-pinners FPC-kabler. Referansedesignet som diskuteres senere er bygget på dette settet.
CSI-2-aggregator uten bruk av SerDes
Denne typen aggregator kan kobles direkte til flere MIPI CSI-2-kameraer og aggregere dataene fra alle kameraene til en enkelt CSI-2-utgangsstrøm.
Figur 2-3 viser et eksampav et slikt system. Denne typen aggregeringsløsning bruker ingen serialiserer/deserialisator, men er begrenset av den maksimale avstanden for CSI-2-dataoverføring, som er opptil 30 cm. AM6x Linux SDK støtter ikke denne typen CSI-2-aggregator.
Aktivere flere kameraer i programvare
Programvarearkitektur for kameradelsystemet
Figur 3-1 viser et blokkdiagram på overordnet nivå av programvaren for kameraopptakssystem i AM62A/AM62P Linux SDK, som tilsvarer maskinvaresystemet i figur 2-2.
- Denne programvarearkitekturen gjør det mulig for SoC-en å motta flere kamerastrømmer ved hjelp av SerDes, som vist i figur 2-2. FPD-Link/V3-Link SerDes tilordner en unik I2C-adresse og virtuell kanal til hvert kamera. Et unikt enhetstre-overlegg bør opprettes med den unike I2C-adressen for hvert kamera. CSI-2 RX-driveren gjenkjenner hvert kamera ved hjelp av det unike virtuelle kanalnummeret og oppretter en DMA-kontekst per kamerastrøm. En videonode opprettes for hver DMA-kontekst. Data fra hvert kamera mottas deretter og lagres ved hjelp av DMA i minnet deretter. Brukerområdeapplikasjoner bruker videonodene som tilsvarer hvert kamera for å få tilgang til kameradataene. F.eks.ampInstruksjoner for bruk av denne programvarearkitekturen er gitt i kapittel 4 – Referansedesign.
- Enhver spesifikk sensordriver som er kompatibel med V4L2-rammeverket kan kobles til og brukes i denne arkitekturen. Se [8] for hvordan du integrerer en ny sensordriver i Linux SDK.
Programvarearkitektur for bildepipeline
- AM6x Linux SDK tilbyr GStreamer (GST)-rammeverket, som kan brukes i ser-området for å integrere bildebehandlingskomponentene for ulike applikasjoner. Maskinvareakseleratorene (HWA) på SoC-en, som Vision Pre-processing Accelerator (VPAC) eller ISP, videokoder/dekoder og dyp læringsmotor, nås via GST. pluginsVPAC (ISP) har i seg selv flere blokker, inkludert Vision Imaging Sub-System (VISS), Lens Distortion Correction (LDC) og Multiscalar (MSC), som hver tilsvarer en GST-plugin.
- Figur 3-2 viser blokkdiagrammet for en typisk bildepipeline fra kameraet til koding eller dyp
læringsapplikasjoner på AM62A. Hvis du vil ha mer informasjon om den komplette dataflyten, kan du se dokumentasjonen for EdgeAI SDK.
For AM62P er bildeprosessen enklere fordi det ikke er noen internettleverandør på AM62P.
Med en videonode opprettet for hvert av kameraene, tillater den GStreamer-baserte bildepipelinen behandling av flere kamerainnganger (tilkoblet via samme CSI-2 RX-grensesnitt) samtidig. En referansedesign som bruker GStreamer for flerkameraapplikasjoner er gitt i neste kapittel.
Referansedesign
Dette kapittelet presenterer et referansedesign for å kjøre flerkameraapplikasjoner på AM62A EVM, ved bruk av Arducam V3Link Camera Solution Kit for å koble 4 CSI-2-kameraer til AM62A og kjøre objektdeteksjon for alle 4 kameraene.
Støttede kameraer
Arducam V3Link-settet fungerer med både FPD-Link/V3-Link-baserte kameraer og Raspberry Pi-kompatible CSI-2-kameraer. Følgende kameraer er testet:
- D3 Engineering D3RCM-IMX390-953
- Leopard Imaging LI-OV2312-FPDLINKIII-110H
- IMX219-kameraer i Arducam V3Link-kameraløsningssettet
Sette opp fire IMX219-kameraer
Følg instruksjonene i hurtigstartveiledningen for AM62A Starter Kit EVM for å sette opp SK-AM62A-LP EVM (AM62A SK) og hurtigstartveiledningen for ArduCam V3Link Camera Solution for å koble kameraene til AM62A SK via V3Link-settet. Sørg for at pinnene på fleksible kablene, kameraene, V3Link-kortet og AM62A SK er riktig justert.
Figur 4-1 viser oppsettet som ble brukt for referansedesignet i denne rapporten. Hovedkomponentene i oppsettet inkluderer:
- 1X SK-AM62A-LP EVM-kort
- 1X Arducam V3Link d-kanals adapterkort
- FPC-kabel som kobler Arducam V3Link til SK-AM62A
- 4X V3Link-kameraadaptere (serialiserere)
- 4x RF-koaksialkabler for å koble V3Link-serialiserere til V3Link d-kanalsett
- 4X IMX219-kameraer
- 4x CSI-2 22-pinners kabler for å koble kameraer til serialiserere
- Kabler: HDMI-kabel, USB-C for å drive SK-AM62A-LP og 12V strømkilde for V3Link d-kanalsett)
- Andre komponenter som ikke vises i figur 4-1: micro-SD-kort, micro-USB-kabel for tilgang til SK-AM62A-LP og Ethernet for strømming
Konfigurering av kameraer og CSI-2 RX-grensesnitt
Sett opp programvaren i henhold til instruksjonene i hurtigstartveiledningen for Arducam V3Link. Etter at du har kjørt kameraoppsettskriptet setup-imx219.sh, vil kameraets format, CSI-2 RX-grensesnittformatet og rutene fra hvert kamera til den tilsvarende videonoden bli riktig konfigurert. Fire videonoder opprettes for de fire IMX219-kameraene. Kommandoen «v4l2-ctl –list-devices» viser alle V4L2-videoenhetene, som vist nedenfor:
Det er 6 videonoder og 1 medianode under tiscsi2rx. Hver videonode tilsvarer en DMA-kontekst tildelt av CSI2 RX-driveren. Av de 6 videonodene brukes 4 for de 4 IMX219-kameraene, som vist i mediapipe-topologien nedenfor:
Som vist ovenfor har medieenheten 30102000.ticsi2rx 6 kildepunkter, men bare de første 4 brukes, hver for én IMX219. Mediepipe-topologien kan også illustreres grafisk. Kjør følgende kommando for å generere en prikk file:
Kjør deretter kommandoen nedenfor på en Linux-verts-PC for å generere en PNG file:
Figur 4-2 er et bilde generert ved hjelp av kommandoene gitt ovenfor. Komponentene i programvarearkitekturen i figur 3-1 finnes i denne grafen.
Strømming fra fire kameraer
Med riktig konfigurering av både maskinvare og programvare kan flerkameraapplikasjoner kjøres fra brukerområdet. For AM62A må ISP-en finjusteres for å produsere god bildekvalitet. Se AM6xA ISP-innstillingsveiledningen for hvordan du utfører ISP-innstilling. Følgende avsnitt presenterer f.eks.ampstrømming av kameradata til en skjerm, strømming av kameradata til et nettverk og lagring av kameradataene til files.
Strømming av kameradata til skjerm
En grunnleggende anvendelse av dette flerkamerasystemet er å strømme videoer fra alle kameraene til en skjerm som er koblet til samme SoC. Følgende er et eksempel på en GStreamer-pipeline.ampmed å strømme fire IMX219 til en skjerm (videonodenumrene og v4l-subdev-numrene i pipelinen vil sannsynligvis endres fra omstart til omstart).
Strømming av kameradata via Ethernet
I stedet for å strømme til en skjerm som er koblet til samme SoC, kan kameradataene også strømmes via Ethernet. Mottakersiden kan enten være en annen AM62A/AM62P-prosessor eller en verts-PC. Følgende er et eksempelampmed å strømme kameradataene via Ethernet (ved å bruke to kameraer for enkelhets skyld) (merk koder-pluginen som brukes i prosessen):
Følgende er en eksamphvordan man mottar kameradata og strømmer dem til en skjerm på en annen AM62A/AM62P-prosessor:
Lagring av kameradata til Files
I stedet for å strømme til en skjerm eller via et nettverk, kan kameradataene lagres lokalt files. Rørledningen nedenfor lagrer hvert kameras data til en file (bruker to kameraer som et eksempel)ampfor enkelhets skyld).
Inferens for dyp læring med flere kameraer
AM62A er utstyrt med en dyp læringsakselerator (C7x-MMA) med opptil to TOPS, som er i stand til å kjøre ulike typer dyp læringsmodeller for klassifisering, objektdeteksjon, semantisk segmentering og mer. Denne delen viser hvordan AM62A kan kjøre fire dyp læringsmodeller samtidig på fire forskjellige kamerafeeder.
Modellvalg
TIs EdgeAI-ModelZoo tilbyr hundrevis av toppmoderne modeller som konverteres/eksporteres fra de opprinnelige treningsrammeverkene til et innebygd format, slik at de kan lastes ned til C7x-MMA-akseleratoren for dyp læring. Den skybaserte Edge AI Studio Model Analyzer tilbyr et brukervennlig verktøy for «modellvalg». Det oppdateres dynamisk for å inkludere alle modeller som støttes i TI EdgeAI-ModelZoo. Verktøyet krever ingen tidligere erfaring og har et brukervennlig grensesnitt for å legge inn funksjonene som kreves i den ønskede modellen.
TFL-OD-2000-ssd-mobV1-coco-mlperf ble valgt for dette dyplæringseksperimentet med flere kameraer. Denne modellen for deteksjon av flere objekter er utviklet i TensorFlow-rammeverket med en inngangsoppløsning på 300 × 300. Tabell 4-1 viser de viktigste funksjonene til denne modellen når den trenes på cCOCO-datasettet med omtrent 80 forskjellige klasser.
Tabell 4-1. Fremhevede funksjoner for modellen TFL-OD-2000-ssd-mobV1-coco-mlperf.
Modell | Oppgave | Oppløsning | FPS | mAP 50 %
Nøyaktighet på COCO |
Latens/ramme (ms) | DDR svart-hvitt
Utnyttelse (MB/ramme) |
TFL-OD-2000-ssd-
mobV1-coco-mlperf |
Deteksjon av flere objekter | 300×300 | ~152 | 15.9 | 6.5 | 18.839 |
Oppsett av rørledning
Figur 4-3 viser GStreamer-pipelinen for dyp læring med 4 kameraer. TI tilbyr en pakke med GStreamer plugins som tillater avlastning av noe av medieprosesseringen og den dype læringsinferansen til maskinvareakseleratorene. Noen f.eks.amples av disse plugins inkluderer tiovxisp, tiovxmultiscaler, tiovxmosaic og tidlinferer. Rørledningen i figur 4-3 inkluderer alle nødvendige plugins for en flerveis GStreamer-pipeline for 4-kamerainnganger, hver med medieforbehandling, dyp læringsinferens og etterbehandling. Den dupliserte plugins for hver av kamerabanene er stablet i grafen for enklere demonstrasjon.
De tilgjengelige maskinvareressursene er jevnt fordelt mellom de fire kamerabanene. For eksempel inneholder AM62A to bildemultiskaleringsprogrammer: MSC0 og MSC1. Pipeline-prosessen dedikerer eksplisitt MSC0 til å behandle kamera 1- og kamera 2-banene, mens MSC1 er dedikert til kamera 3 og kamera 4.
Utdataene fra de fire kamerapipelinene skaleres ned og settes sammen ved hjelp av tiovxmosaic-pluginen. Utdataene vises på én skjerm. Figur 4-4 viser utdataene fra de fire kameraene med en dyp læringsmodell som kjører objektdeteksjon. Hver pipeline (kamera) kjører med 30 FPS og totalt 120 FPS.
Neste er det fullstendige pipeline-skriptet for brukstilfellet med dyp læring for flere kameraer vist i figur 4-3.
Ytelsesanalyse
Oppsettet med fire kameraer ved bruk av V3Link-kortet og AM62A SK ble testet i ulike applikasjonsscenarier, inkludert direkte visning på en skjerm, strømming over Ethernet (fire UDP-kanaler), opptak til fire separate files, og med dyp læringsinferens. I hvert eksperiment overvåket vi bildefrekvensen og utnyttelsen av CPU-kjerner for å utforske hele systemets muligheter.
Som tidligere vist i figur 4-4, bruker den dype læringsrørledningen tiperfoverlay GStreamer-pluginen for å vise CPU-kjernebelastninger som et søylediagram nederst på skjermen. Som standard oppdateres grafen hvert andre sekund for å vise belastningene som en utnyttelsesprosent.tage. I tillegg til tiperfoverlay GStreamer-pluginen, er perf_stats-verktøyet et andre alternativ for å vise kjerneytelsen direkte på terminalen med et alternativ for lagring til en fileDette verktøyet er mer nøyaktig sammenlignet med tTiperfoverlay, ettersom sistnevnte legger ekstra belastning på ARMm-kjernene og DDR for å tegne grafen og legge den over skjermen. perf_stats-verktøyet brukes hovedsakelig til å samle inn resultater fra maskinvareutnyttelse i alle testtilfellene som vises i dette dokumentet. Noen av de viktige prosessorkjernene og akseleratorene som studeres i disse testene inkluderer hovedprosessorene (fire A53 Arm-kjerner @ 1.25 GHz), dyplæringsakseleratoren (C7x-MMA @ 850 MHz), VPAC (ISP) med VISS og multiskalere (MSC0 og MSC1) og DDR-operasjoner.
Tabell 5-1 viser ytelse og ressursutnyttelse ved bruk av AM62A med fire kameraer for tre brukstilfeller, inkludert strømming av fire kameraer til en skjerm, strømming over Ethernet og opptak til fire separate files. To tester implementeres i hvert brukstilfelle: med kun kameraet og med dyp læringsinferens. I tillegg viser den første raden i tabell 5-1 maskinvareutnyttelsen når kun operativsystemet kjørte på AM62A uten noen brukerapplikasjoner. Dette brukes som en grunnlinje for å sammenligne mot når man evaluerer maskinvareutnyttelsen til de andre testtilfellene. Som vist i tabellen, opererte de fire kameraene med dyp læring og skjermvisning med 30 FPS hver, med totalt 120 FPS for de fire kameraene. Denne høye bildefrekvensen oppnås med bare 86 % av dyp læringsakseleratorens (C7x-MMA) fulle kapasitet. I tillegg er det viktig å merke seg at dyp læringsakseleratoren ble klokket til 850 MHz i stedet for 1000 MHz i disse eksperimentene, som bare er omtrent 85 % av den maksimale ytelsen.
Tabell 5-1. Ytelse (FPS) og ressursutnyttelse av AM62A når den brukes med 4 IMX219-kameraer for skjermvisning, Ethernet-strømming, opptak til Files, og utføre dyp læringsinferensering
Applikasjon n | Rørledning (drift
) |
Produksjon | FPS gjennomsnittlig pipeline s | FPS
total |
MPU-er A53s @ 1.25
GHz [%] |
MCU R5 [%] | DLA (C7x-MMA) @ 850
MHz [%] |
VISS [%] | MSC0 [%] | MSC1 [%] | DDR
Vei [MB/s] |
DDR
Brann [MB/s] |
DDR
Totalt [MB/s] |
Ingen app | Grunnlinje Ingen drift | NA | NA | NA | 1.87 | 1 | 0 | 0 | 0 | 0 | 560 | 19 | 579 |
Kamera bare | Strøm til skjerm | Skjerm | 30 | 120 | 12 | 12 | 0 | 70 | 61 | 60 | 1015 | 757 | 1782 |
Strøm over Ethernet | UDP: 4
porter 1920×1080 |
30 | 120 | 23 | 6 | 0 | 70 | 0 | 0 | 2071 | 1390 | 3461 | |
Rekord til files | 4 files 1920×1080 | 30 | 120 | 25 | 3 | 0 | 70 | 0 | 0 | 2100 | 1403 | 3503 | |
Cam med dyp læring | Dyp læring: Objektdeteksjon MobV1- coco | Skjerm | 30 | 120 | 38 | 25 | 86 | 71 | 85 | 82 | 2926 | 1676 | 4602 |
Dyp læring: Objektdeteksjon MobV1-coco og strømming over Ethernet | UDP: 4
porter 1920×1080 |
28 | 112 | 84 | 20 | 99 | 66 | 65 | 72 | 4157 | 2563 | 6720 | |
Dyp læring: Objektdeteksjon MobV1- coco og opptak til files | 4 files 1920×1080 | 28 | 112 | 87 | 22 | 98 | 75 | 82 | 61 | 2024 | 2458 | 6482 |
Sammendrag
Denne applikasjonsrapporten beskriver hvordan man implementerer flerkameraapplikasjoner på AM6x-familien av enheter. Rapporten inneholder et referansedesign basert på Arducams V3Link Camera Solution Kit og AM62A SK EVM, med flere kameraapplikasjoner som bruker fire IMX219-kameraer, for eksempel strømming og objektdeteksjon. Brukere oppfordres til å anskaffe V3Link Camera Solution Kit fra Arducam og kopiere disse eksemplene.ampRapporten gir også en detaljert analyse av ytelsen til AM62A ved bruk av fire kameraer under ulike konfigurasjoner, inkludert visning på en skjerm, strømming over Ethernet og opptak til files. Den viser også AM62As evne til å utføre dyp læringsinferens på fire separate kamerastrømmer parallelt. Hvis det er noen spørsmål om å kjøre disse eksempleneamples, send inn en forespørsel på TI E2E-forumet.
Referanser
- Hurtigstartveiledning for AM62A startsett for EVM
- Hurtigstartveiledning for ArduCam V3Link-kameraløsning
- Dokumentasjon av Edge AI SDK for AM62A
- Edge AI-smartkameraer som bruker energieffektiv AM62A-prosessor
- Kameraspeilsystemer på AM62A
- Fører- og beleggovervåkingssystemer på AM62A
- Firekanalskameraapplikasjon for surround View og CMS-kamerasystemer
- AM62Ax Linux Academy om aktivering av CIS-2-sensor
- Edge AI-modellZoo
- Edge AI Studio
- Perf_stats-verktøyet
TI-deler som det refereres til i denne applikasjonen Merknad:
- https://www.ti.com/product/AM62A7
- https://www.ti.com/product/AM62A7-Q1
- https://www.ti.com/product/AM62A3
- https://www.ti.com/product/AM62A3-Q1
- https://www.ti.com/product/AM62P
- https://www.ti.com/product/AM62P-Q1
- https://www.ti.com/product/DS90UB960-Q1
- https://www.ti.com/product/DS90UB953-Q1
- https://www.ti.com/product/TDES960
- https://www.ti.com/product/TSER953
VIKTIG MERKNAD OG ANSVARSFRASKRIVELSE
TI LEVERER TEKNISKE DATA OG PÅLITELIGHETSDATA (INKLUDERT DATABLAD), DESIGNRESURSER (INKLUDERT REFERANSEDESIGN), APPLIKASJON ELLER ANDRE DESIGNRÅD, WEB INTERVERKTØY, SIKKERHETSINFORMASJON OG ANDRE RESSURSER "SOM DE ER" OG MED ALLE FEIL, OG FRASKRIVER SEG ALLE GARANTIER, UTTRYKKELIGE OG UNDERFORSTÅEDE, INKLUDERT UTEN BEGRENSNING EVENTUELLE UNDERFORSTÅEDE GARANTIER OM SALGBARHET OG PARTIKKELIGHET. .
Disse ressursene er beregnet på dyktige utviklere som designer med TI-produkter. Du er alene ansvarlig for
- velge de riktige TI-produktene for din applikasjon,
- designe, validere og teste søknaden din, og
- sørge for at applikasjonen din oppfyller gjeldende standarder og andre sikkerhets-, regulatoriske eller andre krav.
Disse ressursene kan endres uten varsel. TI tillater deg å bruke disse ressursene kun til utvikling av et program som bruker TI-produktene beskrevet i ressursen. Annen reproduksjon og visning av disse ressursene er forbudt. Det gis ingen lisens til noen annen TI-åndsverksrett eller til noen tredjeparts åndsverksrett. TI fraskriver seg ansvar for, og du skal holde TI og dets representanter fullt skadesløse mot, eventuelle krav, skader, kostnader, tap og ansvar som oppstår som følge av din bruk av disse ressursene.
TIs produkter leveres underlagt TIs salgsvilkår eller andre gjeldende vilkår som er tilgjengelig enten på ti.com eller leveres i forbindelse med slike TI-produkter. TIs levering av disse ressursene utvider eller endrer ikke TIs gjeldende garantier eller garantifraskrivelser for TI-produkter.
TI protesterer mot og avviser eventuelle tilleggs- eller andre vilkår du måtte ha foreslått.
VIKTIG MERKNAD
- Postadresse: Texas Instruments, Post Office Box 655303, Dallas, Texas 75265
- Copyright © 2024, Texas Instruments Incorporated
Ofte stilte spørsmål
Spørsmål: Kan jeg bruke alle typer kameraer med AM6x-familien av enheter?
AM6x-familien støtter forskjellige kameratyper, inkludert de med eller uten innebygd internettleverandør. Se spesifikasjonene for mer informasjon om støttede kameratyper.
Hva er de viktigste forskjellene mellom AM62A og AM62P når det gjelder bildebehandling?
De viktigste variasjonene inkluderer støttede kameratyper, kamerautgangsdata, tilstedeværelse av ISP-hårdvare, dyp læringshårdvare og 3D-grafikkhårdvare. Se spesifikasjonsdelen for en detaljert sammenligning.
Dokumenter / Ressurser
![]() |
Texas Instruments AM6x utvikler flere kameraer [pdfBrukerhåndbok AM62A, AM62P, AM6x Fremkaller flere kameraer, AM6x, Fremkaller flere kameraer, Flere kameraer, Kamera |