Inference at the Edge: Gcore sorgt für nahtlose Echtzeit-Performance von KI-Anwendungen

en de

Neue KI-Lösung ermöglicht global eine schnelle, sichere und kosteneffiziente Bereitstellung von vortrainierten maschinellen Lernmodellen direkt am Netzwerkrand.

<< Zurück
12/06/2024 |
  • Andre Reitenbach CEO at Gcore27

    Andre Reitenbach, CEO at Gcore

Gcore, globaler Anbieter von Edge-KI-, Cloud-, Netzwerk- und Sicherheitslösungen, hat die Einführung von Inference at the Edge angekündigt. Die innovative Lösung ermöglicht KI-Anwendungen mit extrem niedrigen Latenzzeiten und erleichtert so die verteilte Bereitstellung vortrainierter Machine-Learning-Modelle (ML) an Edge-Inferenzknoten.

Mit Hilfe von Gcore Inference at the Edge können Unternehmen aus den unterschiedlichsten Branchen KI-Modelle kostengünstig, skalierbar und sicher einsetzen. Dazu gehören beispielsweise die Fertigungs- und Automobilindustrie, der Einzelhandel und der Technologiesektor. Anwendungsfälle wie generative KI, Objekterkennung, Verhaltensanalysen in Echtzeit, virtuelle Assistenten und Produktionsüberwachung können nun schnell und weltweit implementiert werden.

Der Service läuft auf Gcores globalem Netzwerk mit mehr als 180 Edge-Knoten, die durch eine ausgeklügelte Smart-Routing-Technologie mit geringer Latenz miteinander verbunden sind. Jeder dieser Hochleistungsknoten befindet sich am Rande des Gcore-Netzwerks und sorgt für eine strategische Platzierung der Server in der Nähe der Endnutzer:innen. Inference at the Edge läuft auf dem marktführenden Chip L40S GPUs von NVIDIA, der speziell für KI-Inferenzen entwickelt wurde. Sendet ein:e Anwender:in eine Anfrage, bestimmt ein Edge-Knoten die Route zur nächstgelegenen verfügbaren Inferenzregion mit der geringsten Latenz, wodurch eine typische Antwortzeit von unter 30ms erreicht wird.

Die neue Lösung unterstützt eine breite Palette grundlegender ML- und benutzerdefinierter Modelle. Zu den im Gcore ML Model Hub verfügbaren Open-Source-Grundmodellen gehören LLaMA Pro 8B, Mistral 7B und Stable-Diffusion XL. Modelle können nach Bedarf ausgewählt und flexibel trainiert werden, bevor sie global über Gcore Inference an den Edge-Knotenpunkten verteilt werden. Damit wird ein wesentliches Problem von Entwicklungsteams gelöst: Normalerweise werden KI-Modelle auf denselben Servern ausgeführt, auf denen sie auch trainiert wurden, was zu einer verminderten Leistung führt.

Weitere Vorteile von Gcore Inference at the Edge sind:

  • Kostengünstige Bereitstellung: Eine flexible Preisstruktur sorgt dafür, dass Kund:innen nur für die Ressourcen zahlen, die sie auch tatsächlich nutzen.
  • Eingebauter DDoS-Schutz: Die Infrastruktur von Gcore schützt ML-Endpunkte automatisch vor DDoS-Angriffen.
  • Datenschutz und Sicherheit auf höchstem Niveau: Die Lösung verfügt über eine eingebaute DSGVO-Konformität und folgt den Standards PCI DSS und ISO/IEC 27001.
  • Modell-Autoskalierung: Für Lastspitzen steht eine Autoskalierung zur Verfügung, so dass jederzeit ein Modell bereitgestellt werden kann, um Nachfragespitzen und unerwartete Lastspitzen zu bewältigen.
  • Unbegrenzter Objektspeicher: Skalierbarer S3-kompatibler Cloud-Speicher, der mit den wachsenden Anforderungen des Modells wächst. Anwender:innen erhalten dadurch eine flexible, kosteneffiziente und zuverlässige Lösung, die eine einfache Integration ermöglicht.

Andre Reitenbach, Geschäftsführer von Gcore, erklärt: „Mit Gcore Inference at the Edge können sich unsere Kund:innen darauf konzentrieren, ihre Machine-Learning-Modelle zu optimieren, anstatt sich um die Kosten, Kapazitäten und Infrastruktur zu kümmern, die für die globale Bereitstellung von KI-Anwendungen erforderlich sind. Wir bei Gcore sind davon überzeugt, dass die beste Performance und das beste Endnutzer:innen-Erlebnis am Rande des Netzwerks erreicht wird. Deshalb entwickeln wir unsere Lösungen kontinuierlich weiter, um sicherzustellen, dass jede:r Kund:in eine konkurrenzlose Skalierung und Performance erfährt. Gcore Inference at the Edge ist leistungsstark, aber unkompliziert und bietet eine moderne, effektive und effiziente Echtzeitdatenverarbeitung mithilfe von Künstlicher Intelligenz."

Gcore Inference at the Edge ist ab sofort erhältlich. Mehr dazu unter:  https://gcore.com/inference-at-the-edge

Zurück nach oben | << Zurück

Communiqués liés

HiltonHonorsCreditCard-powered-by-Advanzia
11/07/2024

Hilton bietet in Zusammenarbeit mit der Advanzia Bank eine H...

Mitglieder kommen in den Genuss einer Reihe von Vorteilen, darunter ein exklusiv...

Advanzia Bank S.A
Patrick Chaussy
08/07/2024

Première année complète d'activité : MyConnectivity a é...

Le rapport annuel 2023 résume les étapes les plus importantes pour le pays et ...

MyConnectivity G.I.E
BDL
08/07/2024 Personnalités

Banque de Luxembourg renouvelle la gouvernance de son activi...

La Banque de Luxembourg insuffle une nouvelle dynamique au développement de ses...

Banque de Luxembourg
Ceratizit
04/07/2024

Des investissements importants pour un avenir solide

Malgré une demande en baisse sur certains marchés de vente, le Plansee Group a...

CERATIZIT
Villeroy boch logo
04/07/2024

Villeroy & Boch AG: Neuorganisation der Vorstandsressorts

Der Aufsichtsrat der Villeroy & Boch AG hat heute eine strukturelle Neuorganisat...

Villeroy & Boch
SEL UN FLIBCO 019
03/07/2024

Flibco.com annonce des résultats positifs et prometteurs à...

Flibco.com est ravi d’annoncer un bilan remarquable et positif après un an de...

Flibco

Il n'y a aucun résultat pour votre recherche

Cookies gewährleisten die bestmögliche Verwendung der Webseite. Bei Verwendung der Webseite stimmen Sie zu dem Einsatz von Cookies zu. OK Mehr Infos