Video- und Bildverarbeitungs-Suite
Die Intel FPGA Video and Image Processing Suite ist eine Sammlung von Intel FPGA Intellectual Property (IP)-Funktionen, die Sie verwenden können, um die Entwicklung benutzerdefinierter Video- und Bildverarbeitungsdesigns zu erleichtern. Diese Intel FPGA IP-Funktionen eignen sich für den Einsatz in einer Vielzahl von Bildverarbeitungs- und Anzeigeanwendungen, wie z. B. Studioübertragung, Videokonferenzen, AV-Netzwerke, medizinische Bildgebung, Smart City/Einzelhandel und Verbraucher.
Video- und Bildverarbeitungs-Suite
Die Video und Vision Processing Suite ist die IP-Suite der nächsten Generation für die Video- und Bildverarbeitung. Die IPs transportieren das Video über das FPGA Streaming Video-Protokoll von Intel, welches das branchenübliche AXI4-Stream-Protokoll verwendet. Eine Protokollkonverter-IP-Adresse ermöglicht die Interoperabilität mit dem Avalon Streaming Video-Standard und der bestehenden Video und Image Processing Suite-IP oder anderen IP-Adressen, die mit dem Avalon Streaming Video-Protokoll kompatibel sind.
Die Video und Image Processing Suite bietet Kerne, die von einfachen Bausteinfunktionen wie Farbraumumwandlung bis hin zu ausgeklügelten Videoskalierungsfunktionen reichen, die programmierbare Polyphasenskalierung implementieren können.
- Alle VIP Cores verwenden einen offenen Avalon® Streaming (Avalon-ST)-Schnittstellenstandard mit geringem Overhead, sodass sie einfach verbunden werden können
- Sie können VIP Cores verwenden, um mit der Intel® Quartus® Prime Lite- oder Standard Edition-Software und dem zugehörigen Platform Designer schnell eine benutzerdefinierte Videoverarbeitungssignalkette zu erstellen.
- Sie können Video- und Bildverarbeitungs-Kerne mit Ihrer eigenen proprietären IP kombinieren und abstimmen.
- Mit dem Plattform Designer können Sie eingebettete Prozessoren und Peripheriegeräte automatisch integrieren und eine Arbitrierungslogik generieren.
- Unterstützt 8K-Video bei 60 FPS und darüber hinaus.
Besondere Merkmale
Video und Image Processing Suite Intel FPGA IP Funktionen
Intel FPGA IP Funktion |
Bezeichnung |
---|---|
Implementiert einen 3x3, 5x5 oder 7x7 Finite Impulse Response (FIR) Filter auf einem Bilddatenstrom, um Bilder zu glätten oder zu schärfen. |
|
Mischt und kombiniert mehrere Bildströme – die für die Implementierung von Textüberlagerung und Bild-in-Bild-Mischung nützlich sind. |
|
Erfasst Videodatenpakete ohne Hinzufügen von zusätzlichen Verzögerungen und eine Verbindung zum Trace-System-IP zur Sammlung von Videoverfolgungsdaten. |
|
Entfernt und repariert die nicht idealen Sequenzen und Fehlerfälle im eingehenden Datenstrom, um einen Ausgabestrom zu erzeugen, der dem impliziten idealen Nutzungsmodell entspricht. |
|
Ändert die Abtastfrequenz der Chrominanzdaten für Bildrahmen, zum Beispiel von 4:2:2 bis 4:4:4 oder 4:2:2 bis 4:2:0. |
|
Bietet eine Möglichkeit zum Ausschneiden von Videostreams und kann zur Kompilierzeit oder zur Laufzeit konfiguriert werden. |
|
Die IP-Cores der getakteten Videoschnittstelle konvertieren getaktete Videoformate (wie BT656, BT1120 und DVI) in Avalon-ST-Video; und umgekehrt. |
|
Ändert, wie Farbebenenproben über die Avalon-ST-Schnittstelle übertragen werden. Diese Funktion kann verwendet werden, um Videostreams aufzuteilen und zu verbinden und so das Routing von Farbebenenproben zu steuern. |
|
Konvertieren Sie Bilddaten zwischen einer Vielzahl verschiedener Farbräume wie RGB in YCrCb. |
|
Konfigurierbare Sicherheitsbänder |
Der IP Core der konfigurierbaren Schutzbänder vergleicht jede Farbebene im Eingangsvideostream mit den Werten der oberen und unteren Schutzbänder. |
Synchronisiert die am Videostream vorgenommenen Änderungen in Echtzeit zwischen zwei Funktionen. |
|
Konvertiert Interlaced-Video-Formate in Progressive-Video-Formate mit einem bewegungsadaptiven Deinterlacing-Algorithmus. Unterstützt auch „Bob“- und „Weave“-Algorithmen, Kantenerkennung mit niedrigem Winkel, 3:2-Kadenzerkennung und geringe Latenz. |
|
Puffern Sie Videorahmen in einen externen RAM. Dieser Kern unterstützt die Doppel- oder Dreifachpufferung mit einer Reihe von Optionen für das Verringern und Wiederholen der Bildanzahl. |
|
Liest Video vom externen Speicher und gibt es als Stream aus. |
|
Ermöglicht die Korrektur von Videostreams hinsichtlich der physikalischen Eigenschaften von Anzeigegeräten. |
|
Konvertiert Progressive-Video in Interlaced-Video, indem die Hälfte der Zeilen eingehender progressiver Frames weggelassen wird. |
|
Die HDL-Code-basierte Scaler II Intel FPGA IP-Funktion benötigt weniger Fläche als der Scaler der ersten Generation in der Video und Image Processing Suite und bietet gleichzeitig eine höhere Leistung. Die Scaler II-Funktion reduziert die erforderlichen Ressourcen durch die neue Unterstützung der 4:2:2 Chroma-Datenabtastrate weiter. Sowohl lineare als auch mehrphasige Algorithmen sind mit der neuen Funktion des kantenadaptiven Algorithmus verfügbar, um die Unschärfe zu reduzieren und gleichzeitig den Realismus beizubehalten. |
|
Ermöglicht die Umschaltung von Videostreams in Echtzeit. |
|
Generieren Sie einen Videostream mit stillstehenden Farbbalken zur Verwendung als Testmuster. |
|
Überwacht erfasste Daten vom Videomonitor und stellt eine Verbindung zur Host-Systemkonsole über JTAG oder USB zur Anzeige her |
Erste Schritte
Designbeispiele und Entwicklungskits
Die folgenden Designbeispiele stehen Ihnen zur Ausführung auf den Entwicklungskits zur Verfügung.
Produktbezeichnung |
Unterstützte Geräte/Entwicklungskit |
Tochterkarte |
Kompatibel mit Plattform Designer |
Anbieter |
---|---|---|---|---|
✓ |
Intel |
|||
Keine |
✓ |
ALSE |
||
Keine |
✓ |
Terasic |
||
Intel FPGA Video und Designbeispiel für die Bildverarbeitung |
✓ |
Intel |
Video-Tutorials
IP-Qualitätsmetrik
Grundlagen |
|
---|---|
Jahr der ersten IP-Bereitstellung |
2009 |
Neueste Version von Intel® Quartus® Software unterstützt |
18.1 |
Status |
In Benutzung |
Leistungen |
|
Die Leistungen für den Kunden umfassen Folgendes: Design-Datei (verschlüsselter Quellcode oder synthetisierte Netzliste) Simulationsmodell für ModelSim*-Intel® FPGA Edition Timing- und/oder Layout-Beschränkungen Testbench oder Designbeispiel Dokumentation mit Revisionskontrolle Readme-Datei |
Ja Ja Ja Ja Ja Nein |
Zusätzliche Leistungen für den Kunden in Verbindung mit der IP-Bereitstellung |
Keine |
Parametrisierungs-GUI für die IP-Konfiguration durch den Endbenutzer |
Ja |
IP-Core ist für die Unterstützung des Intel® FPGA-IP-Evaluierungsmodus ausgelegt |
Ja |
Beschreibungssprache |
Verilog |
Testbench-Sprache |
Verilog |
Bereitgestellte Softwaretreiber |
Datei sw.tcl |
Treiber-Betriebssystem-Unterstützung |
— |
Implementierung |
|
Benutzeroberfläche |
Getaktetes Video (in dem getakteten Videoeingang und aus dem getakteten Videoausgang) Avalon®-ST (alle anderen Datenwege) |
IP-XACT-Metadaten |
Nein |
Verifizierung |
|
Unterstützte Simulatoren |
ModelSim, VCS, Riviera-PRO, NCSim |
Validierte Hardware |
Arria® II GX/GZ, Arria® V, Intel® Arria® 10, Cyclone® IV ES/GX, Cyclone® V, Intel® Cyclone® 10, Intel® MAX® 10, Stratix® IV, Stratix® V |
Tests auf Einhaltung der Branchenstandards durchgeführt |
Nein |
Wenn ja, welche Tests? |
— |
Wenn ja, bei welchen Intel FPGA-Bauelementen? |
— |
Wenn ja, Datum der Prüfung |
— |
Wenn nein, ist sie geplant? |
— |
Interoperabilität |
|
IP wurde Interoperabilitätstests unterzogen |
Ja |
Wenn ja, mit welchen Intel FPGA-Bauelementen? |
Intel Arria 10, Intel Cyclone 10 |
Interoperabilitätsberichte verfügbar |
— |
Gamma-Korrigiereinrichtung
Die Gamma-Korrigiereinrichtung wird verwendet, wenn Sie Pixelwerte auf bestimmte Bereiche beschränken müssen, basierend auf Informationen über die Anzeige, an die sie gesendet werden sollen. Einige Displays haben eine nicht lineare Reaktion auf die Spannung eines Videosignals, und als Ergebnis wird eine Neuabbildung der Pixelwerte erforderlich, um die Anzeige zu korrigieren. Die Gamma-Korrigiereinrichtung verwendet eine Avalon®-MM-Schnittstellen-Nachschlagetabelle, um eine Zuordnung von Pixelwerten zu ihren geänderten Werten bereitzustellen.
Ein Beispiel für die Gamma-Korrigiereinrichtung wird gezeigt, bei dem ein Y'CbCr-Eingang mit 8-Bit-Farbwerten im Bereich von 0 bis 255 durch den Gamma-Korrigiereinrichtung geleitet wird, der dann die Werte neu zuordnet, um in den Bereich von 16 bis 240 zu passen, und wird an einen getakteten Videoausgang gesendet.
2D FIR Filter
Der 2D Finite Impulse Response (FIR)-Filtervideo geistiges Eigentum (IP) Core wird verwendet, um Farbebenen seriell zu verarbeiten und die Pixelwerte durch einen FIR-Filter zu leiten. Die Koeffizienten werden über eine Avalon Memory Mapped (Avalon-MM)-Schnittstelle eingegeben, die mit einem Nios® II-Prozessor verbunden werden kann, oder durch andere Peripheriegeräte, die auf das Qsys-Design zugreifen, das den Videodatenpfad enthält.
Ein Beispielblockdiagramm, das den 2D-FIR-Filter verwendet, wird mit einem getakteten Videoeingang mit seriell formatierten RGB-Farbebenen gezeigt, um den FIR-Filter zu passieren. Sobald die Filterung abgeschlossen ist, wird der Color Plane Sequencer verwendet, um die Farbebenen von drei Ebenen in Serie zu drei Ebenen parallel umzuformatieren. Mit drei parallelen Farbebenen ist das Videobild bereit, über den getakteten Videoausgangskern extern übertragen zu werden.
Alpha Blending Mixer und Mixer II
Die Alpha Blending Mixer- und Mixer II-Kerne bieten die Möglichkeit, bis zu 12 bzw. 4 Bildebenen zu mischen und sind über eine Avalon-MM-Schnittstelle zur Laufzeit steuerbar. Beim Zugriff von einem Nios II-Prozessor über die Avalon-MM-Schnittstelle können Sie die Position jeder angezeigten Schicht und die Reihenfolge, in der die Schichten überlagert werden, dynamisch steuern (nur Mixer I). Die Alpha-Blending-Funktion von Mixer I unterstützt die Anzeige von transparenten oder halbtransparenten Pixeln (nur Mixer I).
Der Mixer II-Kern enthält einen integrierten Testmustergenerator, der als Hintergrundebene verwendet werden kann. Dies ist ein zusätzlicher Vorteil, da einer der vier Eingänge nicht von einem Testmustergeneratorkern stammen muss. Ein weiterer Vorteil von Mixer II ist seine Fähigkeit, 4K-Videos zu unterstützen.
Ein Beispiel-Blockdiagramm zur Verwendung der Mischerkerne wird mit einem getakteten Videoeingang gezeigt, der den aktiven Video-Feed an Eingang 0 bereitstellt, einer Hintergrundebene, die vom integrierten Testmustergenerator bereitgestellt wird, und einem Frame-Reader-Kern, der statische Grafiken liest wie ein Firmenlogo auf Eingang 1. Diese Feeds werden zusammengemischt, um eine Anzeige eines Videobildes mit Grafiken und einem Hintergrund bereitzustellen, die vom Testmustergenerator bereitgestellt werden.
Es wird empfohlen, die Mischereingänge direkt aus einem Bildpuffer zu speisen, es sei denn, es ist sicher, dass die jeweiligen Bildraten der Ein- und Ausgänge und das Versetzen der Eingangsebenen nicht zu Datenmangel und damit zu einem Einfrieren des Videos führen.
Chroma Resampler
Der Chroma Resampler wird verwendet, um Farbsättigungsformate von Videodaten zu ändern. Im Y'CbCr Farbraum übertragenes Video kann die Cb- und Cr-Farbkomponenten unterabtasten, um die Datenbandbreite zu speichern. Der Chroma Resampler bietet die Möglichkeit, zwischen 4:4:4, 4:2:2 und 4:2:0 zu wechseln.
Ein Beispiel zeigt einen getakteten Videoeingang mit Y'CbCr im 4:2:2-Farbsättigungsformat, das vom Chroma Resampler auf das 4:4:4-Format hochskaliert wird. Dieses hochskalierte Videoformat wird dann an einen Farbraumkonverter übergeben, der das Videoformat von Y'CbCr in RGB umwandelt, um es an den getakteten Videoausgangskern auszusenden.
Clipper II
Der Clipper-Kern wird verwendet, wenn Sie feste Bereiche eines Video-Feeds zur Weiterleitung verwenden möchten. Der Clipper-Kern kann während der Kompilierung konfiguriert oder über eine Avalon-MM-Schnittstelle von einem Nios II-Prozessor oder einem anderen Peripheriegerät aktualisiert werden. Der Clipper hat die Möglichkeit, die Clipping-Methode entweder durch Versätze von den Kanten oder durch einen festen Rechteckbereich festzulegen.
Ein Beispiel zeigt zwei Instanzen des Clippers, die 400 x 400 Pixelbereiche von ihren jeweiligen Videoeingängen nehmen. Diese beiden abgeschnittenen Video-Feeds werden dann zusammen mit anderen Grafiken und dem integrierten Testmustergenerator als Hintergrund in einem Mixer-Kern zusammengemischt. Der Mixer hat die Möglichkeit, den Ort der Videoeingänge anzupassen, damit Sie die beiden abgeschnittenen Video-Feeds bei Bedarf nebeneinander mit dem Hinzufügen von Framepuffern positionieren können.
Getakteter Videoeingangs- und Ausgangs-Cores (I und II)
Die getakteten Videoeingangs- und -Ausgangskerne werden verwendet, um Videos in verschiedenen Formaten wie BT656 und BT1120 aufzunehmen und zu übertragen.
Getaktete Videoeingangskerne konvertieren eingehende Videodaten in Avalon Streaming (Avalon-ST) videoformatierte Paketdaten, entfernen eingehende horizontale und vertikale Austastung und behalten nur aktive Bilddaten bei. Mit dem Kern können Sie Videos mit einer Frequenz aufnehmen und die Daten an den Rest Ihres Qsys-Systems weitergeben, das auf derselben oder einer anderen Frequenz betrieben werden kann.
Bei einem Beispiel für einen getakteten Videoeingang wird gezeigt, wie Video in einen Skaliererblock eingespeist wird, um von 1280 x 720 auf 1920 x 1080 hochzuskalieren, wonach es an einen getakteten Videoausgangskern gesendet wird. Wenn sowohl Eingang als auch Ausgang die gleiche Bildrate haben, können FIFOs im getakteten Videoeingang und getakteten Videoausgang erstellt werden, um eine Konvertierung ohne Bildpuffer zu ermöglichen.
Color Plane Sequencer
Der Color Plane Sequencer wird verwendet, um die Farbplanelemente in einem Videosystem neu anzuordnen. Es kann verwendet werden, um Farbebenen von einer seriellen in eine parallele Übertragung (oder umgekehrt) umzuwandeln, um Videokanäle zu „duplizieren“ (wie sie zum Beispiel zum Ansteuern eines sekundären Videomonitor-Subsystems erforderlich sein könnten) oder um Videokanäle „aufzuteilen“ (z. B. erforderlich sein, um eine Alpha-Ebene von drei RGB-Ebenen zu trennen, die als 4 Ebenen von einem Frame-Reader ausgegeben werden).
Ein Beispiel für den Color Plane Sequencer wird mit dem 2D FIR Filter Video IP Core gezeigt, der erfordert, dass ein Video mit den Farbebenen in Reihe eingegeben und ausgegeben wird. Um ein Video im gewünschten Format an den getakteten Videoausgang zu übertragen, müssen die Farbebenen vom Color Plane Sequencer in Parallele umgewandelt werden.
Color Space Converter (I und II)
Die Color Space Converter Cores (CSC und Color Space Converter II) werden verwendet, wenn Sie zwischen RGB- und Y'CrCb-Farbraumformaten konvertieren müssen. Abhängig von Ihren Anforderungen an das Videoeingangs- und -ausgangsformat müssen Sie möglicherweise zwischen verschiedenen Farbformaten konvertieren.
Ein Beispiel für einen Color Space Converter wird mit einem Chroma Resampler gezeigt, der ein Y'CrCb-Video hochskaliert und dann an den Color Space Converter übergeben und in das RGB-Farbformat konvertiert, um an einen getakteten Videoausgang gesendet zu werden.
Regel-Synchronisierer
Der Regel-Synchronisierer wird in Verbindung mit einem Avalon-MM Master Controller verwendet, wie z. B. einem Nios II-Prozessor oder einem anderen Peripheriegerät. Der Regel-Synchronisierer wird verwendet, um Änderungen der Laufzeit-Konfiguration in einem oder mehr Video-IP-Blöcken in Übereinstimmung mit den Videodaten zu synchronisieren, während er geändert wird. Einige Konfigurationsänderungen können stromaufwärts von einem Video IP Core erfolgen, während Videoframes ihn noch im vorherigen Format durchlaufen. Um den Übergang nahtlos zu gestalten und Störungen auf dem Bildschirm zu vermeiden, wird der Regel-Synchronisierer verwendet, um die Konfigurationsumschaltung genau so auszurichten, wie die neuen eingehenden Videobilddaten im Kern ankommen.
Ein Beispiel für den Regel-Synchronisierer wird mit einem Nios II-Prozessor gezeigt, der einen Testmustergenerator konfiguriert, um die Bildgröße von 720p auf 1080p zu ändern. Der Regel-Synchronisierer empfängt die Benachrichtigung vom Nios II-Prozessor, dass sich die Videobilddaten bald ändern werden, hält sich jedoch davon zurück, den getakteten Videoausgang neu zu konfigurieren, bis die neuen Bilder den Bildpuffer zum Regel-Synchronisierer passieren. Der Regel-Synchronisierer liest die Steuerdatenpakete des Frames, um festzustellen, ob er der neuen Konfiguration entspricht, und aktualisiert dann den getakteten Videoausgangskern auf die neuen Einstellungen, wodurch die Auflösungsänderung am Videoausgang nahtlos erfolgt.
Deinterlacer (I und II) und Broadcast Deinterlacer
Die Deinterlacer-Kerne (Deinterlacer, Deinterlacer II und Broadcast Deinterlacer) wandeln Interlaced-Videoframes in Progressive-Scan-Videoframes um. Je nach gewünschter Qualität, verwendetem Logikbereich und verfügbarer externer Speicherbandbreite stehen mehrere Algorithmen für das Deinterlacing von Video zur Auswahl.
Ein Beispiel für die Verwendung des Deinterlacer-Kerns wird mit einem getakteten Videoeingang gezeigt, der Interlaced-Frames empfängt und den Deinterlacer durchläuft, der mit einem externen Speicher und einem Framepuffer-Kern Transaktionen abwickelt. Nach dem Deinterlacing des Videos in das Progressive-Scan-Format wird es durch einen getakteten Videoausgangskern gesendet.
Framepuffer (I und II)
Die Framepuffer und Framepuffer II-Kerne werden verwendet, um progressive und interlaced Videofelder zu puffern und können Doppel- oder Dreifachpufferung mit einer Reihe von Optionen zum Verwerfen und Wiederholen von Frames unterstützen. In Fällen wie Deinterlacing von Videos, Ändern der Bildrate von Videos oder manchmal Mischen von Videos ist ein Framepuffer erforderlich.
Ein Beispiel für die Verwendung des Framepuffers wird in einem Fall gezeigt, in dem ein getakteter Videoeingangskern Video mit 30 Bildern pro Sekunde (fps) empfängt und es in 60 FPS konvertieren muss. Der Framepuffer-Kern wird verwendet, um mehrere Frames zu puffern und unterstützt sich wiederholende Frames, sodass die Framerate in 60 fps umgewandelt und dann über einen getakteten Videoausgangskern übertragen werden kann.
Frame Reader
Der Frame Reader-Kern wird verwendet, um im externen Speicher gespeicherte Videoframes zu lesen und als Avalon-ST-Videostream auszugeben. Die Daten werden nur als Raw-Video-Pixelwerte gespeichert.
Es wird ein Beispiel gezeigt, in dem der Frame Reader verwendet wird, um Firmenlogo-Grafiken über einen anderen Videostream zu legen und die Ebenen durch einen Mixer-Kern zusammenzuführen. Von dort wird das zusammengeführte Video an einen getakteten Videoausgangskern gesendet. Der Mixer kann optional so konfiguriert werden, dass er einen Alpha-Kanal enthält. In diesem Fall könnte der Rahmenleser so konfiguriert sein, dass er drei Farbebenen und eine Alphaebene liest, die unter Verwendung eines Farbraumkonverters (nicht gezeigt) „aufgeteilt“ werden könnten, bevor sie in den Mischer eingegeben werden.
Skalierer II
Der Scaler II-Kern wird verwendet, um ein Videobild nach oben oder unten zu skalieren. Es unterstützt mehrere Algorithmen, einschließlich nächster Nachbar, bilinear, bikubisch und Polyphasen-/Lanczos-Skalierung. On-Chip-Speicher wird zum Puffern von Videozeilen verwendet, die für die Skalierung verwendet werden, wobei höhere Skalierungsverhältnisse mehr Speicherplatz erfordern.
Ein Beispiel für den Scaler II-Kern wird gezeigt, wie er eine 720p-Videobildgröße von einem getakteten Videoeingang nimmt, auf 1080p skaliert und an einen getakteten Videoausgang sendet.
Switch (I und II)
Die Switch-Kerne ermöglichen es Benutzern, bis zu zwölf Eingangsvideostreams mit bis zu zwölf Ausgangsvideostreams zu verbinden. Der Switch führt die Videostreams weder zusammen noch dupliziert sie, sondern ermöglicht Ihnen, das Routing vom Eingangsport zum Ausgangsport zu ändern. Es ist nicht erforderlich, alle Ausgangsports anzuschließen, es sei denn, Sie möchten diese Videostreams weiterhin überwachen. Die Steuerung des Switches erfolgt über eine Avalon-MM-Schnittstelle, auf die ein Nios II-Prozessor oder ein anderes Avalon-MM-zugeordnetes Peripheriegerät zugreifen kann.
Ein Beispiel für den Switch wird mit einem getakteten Videoeingang und einem Testmustergenerator gezeigt, der zwei Ports an einem Switch versorgt. Der zweite Switch-Ausgangsport bleibt unverbunden, und der Nios II-Prozessor steuert, welcher der beiden Feeds zur Anzeige an den Port gesendet wird, der mit dem getakteten Videoausgang verbunden ist.
Testmuster-Generator II
Mit dem Testmustergenerator-Kern können Sie eine Reihe von Bildern generieren, um Ihre Videoschnittstelle schnell zu testen. Der Kern ist für viele verschiedene Bildgrößen sowie RGB- und YCbCr-Farbformate konfigurierbar.
Sie können einen Testmustergenerator-Kern zusammen mit einem getakteten Videoausgangskern verwenden, um die Videoschnittstelle Ihres Systems schnell zu überprüfen. Mit Ihren gewünschten Videospezifikationen in der Hand dauert die Fertigstellung eines Designs nur wenige Minuten, um schnell zu überprüfen, ob die Schnittstelle ein Bild auf einem externen Display generieren kann.
Avalon-ST Videomonitor
Der Avalon-ST-Videomonitor ist ein Core, der in Reihe mit Ihrem Videodatenpfad eingefügt werden kann, der Avalon-ST-Videopaketinformationen liest und Diagnosedaten an das Trace-System liefert. Der Videomonitor wird dort eingefügt, wo Sie den Videodatenpfad nach Analyse- und Statistikinformationen durchsuchen möchten. In Kombination mit dem Trace-System-Core und extern über einen Debug-Port wie JTAG oder über ein Intel FPGA-Download-Kabel verbunden, erhalten Sie einen besseren Einblick in das Verhalten des Videosystems. Sie können die Systemkonsole als virtuelle Plattform verwenden, um diese Informationen anzuzeigen.
Ein Beispiel zeigt den Avalon-ST-Videomonitor, der vor und nach einem Color Plane Sequencer eingefügt wird. Diese werden verwendet, um Videopaketinformationen zu überwachen, die vom getakteten Videoausgang und vom Color Plane Sequencer kommen. Der Videomonitor ändert die Videodaten nicht, während sie durch den Kern geleitet werden. Die Videomonitore sind an das Trace-System angeschlossen, auf das in diesem Fall über JTAG zugegriffen wird.
Trace-System
Das Trace-System wird verwendet, um auf die Avalon-ST-Videomonitorkerne zuzugreifen, die in ein Design für Videodiagnoseinformationen eingefügt sind. Es können mehrere Videomonitorkerne verwendet werden, um eine Verbindung zu einem Trace System-Controller herzustellen. Das Trace-System stellt eine Verbindung zu einem Host über eine Debug-Schnittstelle her, in der Regel wie ein JTAG-Anschluss oder eine Intel FPGA-Download-Kabelschnittstelle, falls verfügbar.
Ein Beispiel zeigt das Trace-System, das mit ein paar Avalon-ST-Videomonitorkernen verwendet wird, die vor und nach einem Color Plane Sequencer eingefügt sind. Die Videomonitore sind an das Trace-System angeschlossen, auf das in diesem Fall über JTAG zugegriffen wird.
Weitere Ressourcen
IP finden
Finden Sie den richtigen Altera® FPGA IP-Core für Ihre Anforderungen.
Technischer Support
Für technischen Support zu diesem IP-Core besuchen Sie bitte Support-Ressourcen oder Intel® Premium-Support. Außerdem können Sie in dieser Funktion im Wissenscenter und in den Communities nach verwandten Themen suchen.
IP-Evaluierung und -Kauf
Bewertungsmodus und Informationen für den Kauf von Altera® FPGA IP-Cores.
IP Base Suite
Kostenlose Lizenzen für Altera® FPGA IP-Cores mit einer aktiven Lizenz für Quartus® Prime Standard oder Pro Edition Software.
Designbeispiele
Designbeispiele und Referenzdesigns für Altera® FPGA-Geräte herunterladen.
Vertrieb kontaktieren
Kontaktieren Sie den Vertrieb, wenn Sie Anforderungen an die Entwicklung und Beschleunigung von Altera® FPGA-Produkten haben.