Die Schaffung einer vertrauenswürdigen Marke erfordert eine durchdachte Content-Strategie. Content-Gestaltung und Medienabstimmung müssen markensicher und für die jeweiligen Zielgruppen geeignet sein. Die enorme Menge an digitalem Content und die Vielzahl von Kanälen machen es für Unternehmen jedoch fast unmöglich, sicherzustellen, dass Inhalte, die sie verbreiten, konsequent Markenstandards erfüllen.
Mit SeekrAlign*, einer Lösung, die proprietäre Bewertungs- und Analysetechnik nutzt, hilft Seekr Marken dabei, die am besten geeigneten Online-Inhalte zu finden und ihre Reichweite auf verantwortungsvolle Weise zu erhöhen.
Die erste marktreife KI-Lösung von Seekr wurde auf einem Intel® Gaudi® 2 KI-Beschleuniger-Cluster mit 8 Knoten in der Intel® Tiber™ KI-Cloud entwickelt, trainiert und bereitgestellt und hat schnell eine beeindruckende, branchenübergreifende Kundenliste mit führenden Marken gewonnen. Von Moderna und SimpliSafe bis hin zu Babbel erkennen Unternehmen den Nutzen von KI-Lösungen, um geschäftliche Herausforderungen zu bewältigen. Die KI-Beschleunigungsplattform der Intel Tiber KI-Cloud nimmt in dieser Entwicklung eine Vorreiterrolle ein und ermöglicht es Unternehmen, ihre KI-Strategien durch kosteneffektive Cluster mit der neuesten Hardware und Software von Intel zu beschleunigen und zu skalieren.
Herausforderungen und Chancen von KI
Fehlinformationen, „Halluzinationen“ und unangemessene Inhalte einer KI können das Markenvertrauen schnell untergraben. Selbst eine versehentliche Verknüpfung mit Plattformen, die gefährliche Inhalte hosten, kann den Ruf einer Marke gefährden. Aus diesem Grund kontrollieren viele Unternehmen die von ihnen verbreiteten Inhalte sehr genau. Diese Vorgehensweise ist zeitaufwändig, teuer, unzuverlässig und hochgradig subjektiv.
Ein primärer Anwendungsfall sind Podcasts. Die Beliebtheit von Podcasts ist in den letzten Jahren exponentiell gewachsen, und für viele Unternehmen sind Podcasts ein wesentlicher Bestandteil ihrer Content-Strategie und ihrer Werbeeinnahmen. Leider ist es für Markenunternehmen besonders schwierig, die Podcast-Landschaft zu beherrschen, da es bisher keine zuverlässige Methode zur Bewertung einzelner Folgen gibt, außer durch manuelle menschliche Arbeit.
SeekrAlign löst dieses Problem und ermöglicht Unternehmen, Hunderttausende von Podcasts schnell und genau zu screenen. „Align vereinfacht die Suche nach sicheren und geeigneten Podcasts durch die Kombination von Technik auf Weltklasseniveau mit innovativen und transparenten Bewertungsmethoden, sodass Markenunternehmen mit Fingerspitzengefühl vorgehen können, um ihre Audiokampagnen schneller und mit erhöhter Klarheit auszuweiten“, so Dan Granger, CEO der Podcast-Werbeagentur Oxford Road.1
Das benutzerfreundliche Dashboard von Align bewertet Podcast-Inhalte auf einer Skala von 0 bis 100. Das patentierte Bewertungssystem Seekr Civility Score™, das auf dem GARM-Sicherheits-Framework basiert, bietet Vermarktern und Werbetreibenden einen objektiven Standard zur Beurteilung der Sicherheit und Eignung von Inhalten. „Die Problemstellung in diesem enormen Umfang konnte nur durch die Kombination überragender Rechenleistung mit einer neuartigen Erkennung relevanter Muster gelöst werden“, so Rob Clark, President und Chief Technology Officer von Seekr. „Der Civility Score fasst Dutzende von Aspekten in einem einzigen Kennwert zusammen, der den Weg zu markengerechteren Möglichkeiten und größeren Zielgruppen öffnet.“2
Auf der Align-Plattform wurden bereits 20 Millionen Podcast-Minuten bewertet, und diese Zahl soll bis Ende 2024 auf 40 Millionen steigen. Darüber hinaus verfügt die Plattform über Echtzeit-Bewertungen für mehr als 8000 Podcast-Folgen mit insgesamt mehr als 10 Millionen Audiominuten. „Wir haben gezeigt, dass verantwortungsvoll und transparent eingesetzte KI reale geschäftliche Problemstellungen lösen kann, während sich diese Technologie weiterentwickelt“, so Clark. „Ich freue mich darauf, durch fortlaufende Innovation auf diesem Erfolg aufbauen zu können, einschließlich der Entwicklung weiter fortgeschrittener LLMs, die dazu beitragen können, einige der drängendsten sozialen Probleme zu lösen und das Geschäftswachstum mit enormer Schnelligkeit und Genauigkeit zu fördern.“3
Hohe Leistung bei reduzierten Cloud-Rechenkosten
Die anspruchsvollen KI-Workload-Anforderungen von Seekr erfordern immense Rechenkapazitäten. In der Vergangenheit hatte diese Rechenleistung erhebliche Infrastrukturinvestitionen und beträchtliche Cloud-Kosten zur Folge. Mit der Intel Tiber KI-Cloud kann Seekr jedoch zu einem Bruchteil der Kosten auf modernste Hardware und Software von Intel zugreifen. Für ein schnell wachsendes Unternehmen wie Seekr ist die Möglichkeit, Kapitalaufwand einzusparen und den Umsatz zu steigern, während gleichzeitig Zugriff auf die neueste KI-Beschleunigungstechnik besteht, ein äußerst attraktives Angebot.
„Diese strategische Zusammenarbeit mit Intel ermöglicht es Seekr, Foundation Models mit bestmöglicher Preisgestaltung und Leistung zu entwickeln, wobei ein Supercomputer mit Tausenden der neuesten Intel Gaudi Chips zum Einsatz kommt, der durch Interkonnektivität mit hoher Bandbreite unterstützt wird“, so Clark. Die vertrauenswürdigen KI-Produkte von Seekr in Kombination mit dem ganz auf KI ausgerichteten Konzept der Intel Tiber KI-Cloud reduzieren Fehler und Verzerrungen, sodass Unternehmen jeder Größe auf zuverlässige LLMs und Foundation Models (Grundmodelle) zugreifen können, um auf der Basis vertrauenswürdiger Hardware Produktivität zu steigern und Innovationen zu fördern.
„Diese strategische Zusammenarbeit mit Intel ermöglicht es Seekr, Foundation Models mit bestmöglicher Preisgestaltung und Leistung zu entwickeln, wobei ein Supercomputer mit Tausenden der neuesten Intel Gaudi Chips zum Einsatz kommt …“
Flexible KI-Lösungen für vertrauenswürdige Ergebnisse
Die Grundlage dieser innovativen Lösung ist SeekrFlow*, ein umfassendes Toolset für die LLM-Entwicklung mit Schwerpunkt auf der Entwicklung von prinzipienorientierten LLMs unter Verwendung skalierbarer und kombinierbarer Pipelines. SeekrFlow wurde mit dem Ziel maximaler Effizienz und Flexibilität entwickelt und ermöglicht es Entwicklern, LLMs mit skalierbaren und kombinierbaren Workflows zu trainieren und zu erstellen. Die gesamte LLM-Pipeline wird mit einer API verwaltet und kann mit benutzerdefinierten Komponenten angepasst werden. Die Spezifikationen von Berechnungsgraphen wie Ressourcen und Abhängigkeiten sind flexibel und ermöglichen unzählige Konfigurationsoptionen.
Der Workflow von SeekrFlow wird in eine versionierte, wiederholbare und reproduzierbare ausführbare Software kompiliert. Integriert sind außerdem robuste Alignment-Algorithmen, um sicherzustellen, dass das Verhalten des LLMs mit vorgeschriebenen Standards, Absichten, Regeln oder Werten übereinstimmt. Diese LLMs profitieren außerdem von der robusten Inferenz-Pipeline des Unternehmens, die es der Plattform ermöglicht, Audioinhalte in großem Umfang zu transkribieren, Sprechern zuzuordnen und zu bewerten. Nach der Optimierung werden diese benutzerdefinierten LLMs zur benutzerfreundlichen Seekr-Align-Plattform geleitet, wo sie für die schnelle und genaue Bewertung digitaler Inhalte verwendet werden.
Seekr-Bereitstellung in der Intel Tiber KI-Cloud
Seekr nutzte einen regionalen Colocation-Anbieter, um eine Flotte von Serversystemen mit GPUs und CPUs zu hosten. Die selbstverwaltete Recheninfrastruktur wird für die LLM- und multimodale Modellentwicklung verwendet und unterstützt Seekr Align.
Angesichts des Kundenwachstums und des zunehmenden Umfangs der LLM-Bereitstellung suchte Seekr einen Cloud-Service-Provider, der Seekr helfen konnte, sein Geschäft durch ein überlegenes Preis- und Leistungsangebot auszuweiten. Nach erfolgreicher Feinabstimmung und Durchführung von Inferenz-Benchmarks mit LLMs auf Intel Gaudi 2 entschied sich Seekr, die Intel Tiber KI-Cloud als bevorzugte Computing-Infrastruktur für die Entwicklung von LLMs und die Unterstützung von deren Bereitstellung im Produktivbetrieb zu nutzen.
Die Abbildungen 1 – 3 veranschaulichen die durch Softwareoptimierungen und die Umgebung der Intel Tiber KI-Cloud erzielte Leistung.
Seekr plant eine schrittweise Bereitstellung, um die Lösungsplattform des Unternehmens in die Intel Tiber KI-Cloud zu migrieren. Sie nutzt verschiedene KI-optimierte Recheninstanzen in unserer Cloud, um die Bereitstellungskosten und die Leistung von Anwendungs-Workloads zu optimieren, darunter:
- Intel Gaudi 2 Beschleuniger: Das 7B-LLM-Modell, auf dem die SeekrAlign-Lösung basiert, wird auf einem Cluster von Systemen mit Intel Gaudi 2 Beschleunigern bereitgestellt, um sensible Inhalte zu kategorisieren und Risikobewertungen durchzuführen.
- Intel® Data Center GPU Max Series 1550: Seekr verwendet Intel® Extensions for PyTorch* für die Verarbeitung der Transkription und der Sprecheraufteilung auf einem Cluster von Systemen mit Intel GPUs.
- Skalierbare Intel® Xeon® Prozessoren: Das Unternehmen nutzt einen Cluster von Systemen mit Intel® Xeon® CPUs der 4. Generation für die Anwendungsüberwachung, die Datenspeicherverwaltung sowie für Vektor- und Invertierte-Datei-Datenbankdienste. Diese unterstützen die RAG-Dienste (Retrieval Augmented Generation) und SeekrFlow von Seekr beim Aufbau prinzipienorientierter LLMs unter Verwendung skalierbarer und zusammensetzbarer Pipelines.
- Geplant ist die Nutzung von skalierbaren Intel® Xeon® Prozessoren der 5. Generation im Laufe dieses Jahres.
Stefanos Poulis, Leiter der KI-Forschung und -Entwicklung bei Seekr, erklärt: „Die Zusammenarbeit zwischen Seekr und Intel erschließt die Möglichkeiten der Ausführung von KI mit hybriden Ressourcen für die Datenverarbeitung. Intel GPUs und Intel Gaudi 2 Chips werden genutzt, um große und mittlere Transformer-Modelle zu trainieren und bereitzustellen. Im Vergleich zu anderen Chips auf dem Markt konnten wir eine bessere Leistung beim Modelltraining und bei der Inferenz beobachten. Speziell bei LLM-Inferenzen ermöglicht die große Arbeitsspeicherkapazität der Intel HPUs und GPUs, Workload-spezifische Parameter wie Batchgrößen anzupassen. Auf der Softwareseite konnten wir dank der verschiedenen Intel-Erweiterungen unseren ML-Stack nahtlos auf Intel Hardware übertragen.“
Im Rahmen der folgenden Integrationsphase der Intel Tiber KI-Cloud plant Seekr, große Cluster mit Intel Gaudi 2 Beschleunigern und Intel® Kubernetes Service zu nutzen, um sein LLM-Foundation-Model zu trainieren, und die CPU- und GPU-Rechenkapazität zu erweitern, um sein Angebot an vertrauenswürdigen KI-Diensten zu vergrößern.
SimpliSafe® erreicht mit SeekrAlign, der LLM-Lösung von Seekr, ein breiteres und passenderes Publikum für Haussicherheit.
SimpliSafe® ist eine preisgekrönte Haussicherheitslösung, die „jedes Zuhause sicher machen“ soll, wozu den Kunden die neueste und beste Technologie zur bereitgestellt wird. Das Unternehmen ist sehr stolz darauf, ein Pionier in der sich ständig weiterentwickelnden Smart-Home-Branche zu sein. Diese Haltung spiegelt sich auch in seinen unterstützenden Geschäftsfunktionen wider, wie dem Testen neuer Marketingtechniken, mit denen das Unternehmen die Marktreichweite auf durchdachte und effiziente Weise erweitern kann. Darüber hinaus ist es entscheidend für die Strategie zur Erweiterung des Kundenstamms von SimpliSafe, Kundenvertrauen aufzubauen und zu erhalten. Das Unternehmen setzt dies nicht nur durch seine innovativen Produkte und Dienstleistungen um, sondern auch durch durchdachte Werbepraktiken.
SimpliSafe nutzt SeekrAlign, um potenzielle Kunden im richtigen Moment über die richtigen Content-Kanäle zu erreichen. Mit SeekrAlign hat SimpliSafe in Echtzeit Zugriff auf die Bewertung der Inhalte von Tausenden Podcasts und kann Kontext aus Unterhaltungen isolieren. Die LLM-gesteuerten Content-Analyse-Fähigkeiten von Seekr gehen über alles hinaus, was heute auf dem Markt erhältlich ist, und helfen SimpliSafe, markengerechte Inhalte zu entdecken, um relevante Zielgruppen zu erreichen.
„Als Marke, für die Vertrauen und Sicherheit an vorderster Stelle stehen, war es für uns wichtig, eine Lösung zu finden, die die Werte von SimpliSafe teilt. Seekr bietet mit der Intel Developer Cloud [Intel Tiber KI-Cloud] genau diese Plattform und ermöglicht uns, das Problem mit dem Umfang der Überwachung von Podcasts wohlüberlegt anzugehen und sicherzustellen, dass die von uns umgesetzten Werbeaktionen unseren Kundenprofilen entsprechen. Mit Seekr können wir Podcasts mit markensicherem Inhalt finden, mit denen wir die richtigen Zielgruppen erreichen und letztendlich mehr Hausbesitzern die Haussicherheitslösungen von SimpliSafe vorstellen.“
– Nicholas Giorgio, Direktor der Kundenakquise bei SimpliSafe
Mehr Informationen
- Seekr
- Intel Tiber KI-Cloud
- Intel® Liftoff
- Intel Gaudi 2 KI-Beschleuniger – habana.ai
- Intel Enterprise-Software-Lösungen
Intel® Liftoff – Programm für Start-ups
Intel Liftoff ist ein kostenloses virtuelles Programm, das Start-ups im Bereich KI und maschinelles Lernen in einer frühen Phase bei Innovationen und der Skalierung unterstützt. Dieses 2022 von Intel gestartete Programm für selbstgesteuertes Lernen ermöglicht es Start-ups, Hindernisse bei der Programmierung zu überwinden, Leistungsvermögen freizusetzen und ihre Ideen in skalierbare, branchendefinierende KI-Unternehmen zu verwandeln.