Quantisierte neuronale Netzwerke für FPGA-Inferenz

Die Quantisierung mit niedriger Genauigkeit für neuronale Netze unterstützt die Spezifikationen von KI-Anwendungen, indem sie bei gleichem Platzbedarf einen höheren Durchsatz bietet oder den Ressourcenverbrauch reduziert. Block Floating Point (BFP) ist in diesem Szenario aufgrund seines hohen Dynamikbereichs besonders nützlich, was eine geringere Präzision bei gleichbleibender Genauigkeit ermöglicht. Jeder Rückgang der Genauigkeit kann durch erneutes Training mit unserer Open-Source-Software ausgeglichen werden.