F5 optymalizuje dostarczanie aplikacji AI dzięki platformie NVIDIA BlueField-3
Monday PR Sp. z o.o. Sp.k.
Górskiego 9
00-033 Warszawa
biuro|mondaypr.pl| |biuro|mondaypr.pl
+48 224878421
www.mondaypr.pl
F5 ogłasza premierę BIG-IP Next dla Kubernetes – innowacyjnego rozwiązania dedykowanego dla dostawców usług i przedsiębiorstw, które zmienia sposób zarządzania aplikacjami opartymi na sztucznej inteligencji. W połączeniu z jednostkami NVIDIA BlueField-3 DPU[i], platforma zapewnia wyjątkową wydajność, bezpieczeństwo i kontrolę, umożliwiając efektywne zarządzanie danymi w dużych infrastrukturach AI.
Rozwiązanie F5 BIG-IP Next dla Kubernetes sprawdziło się już w chmurze dla klientów z branży telekomunikacyjnej (ang. telco cloud[ii]) na dużą skalę oraz infrastrukturach 5G. Teraz ta technologia jest dostosowana także do przypadków takich jak wnioskowanie, generowanie rozszerzone o pobieranie (RAG) oraz płynne zarządzanie i przechowywanie danych. Integracja z jednostkami NVIDIA BlueField-3 DPU minimalizuje wymagania sprzętowe, optymalizuje zużycie energii i zapewnia wysoką wydajność sieci, oraz zarządzanie bezpieczeństwem i ruchem danych.
Dostawcy usług oraz przedsiębiorstwa potrzebują akceleracji obliczeń, aby dostarczać wysokowydajne aplikacje AI w skali chmury zarówno bezpiecznie, jak i efektywnie – podkreśla Ash Bhalgat, Sr. AI Networking and Security Partnerships, NVIDIA. – NVIDIA współpracuje z F5, aby przyspieszyć dostarczanie aplikacji AI, zapewniając najwyższą wydajność i płynne doświadczenie użytkowników dzięki procesorom BlueField-3 DPU.
Połączenie technologii F5 i NVIDIA odpowiada na rosnące zapotrzebowanie dostawców i wspiera ich w migracji na infrastrukturę chmurową opartą na Kubernetes. F5 BIG-IP Next odciąża DPU BlueField-3 z zadań związanych z transferem dużej ilości danych, uwalniając zasoby CPU do wykorzystania w obliczeniach. Rozwiązanie jest szczególnie korzystne na brzegu sieci w takich środowiskach jak zwirtualizowany RAN (vRAN)[iii] czy DAA dla MSO[iv], a także w rdzeniowych infrastrukturach 5G, przygotowując grunt pod rozwój technologii 6G.
Rozprzestrzenianie się sztucznej inteligencji wywołało bezprecedensowe zapotrzebowanie na zaawansowane półprzewodniki i technologie. Organizacje budują tak zwane fabryki AI – wysoce zoptymalizowane środowiska, zaprojektowane do trenowania dużych modeli AI oraz dostarczania niezbędnej mocy obliczeniowej do skalowania wnioskowania w zdumiewającym tempie i przy minimalnych opóźnieniach – zaznacza Kunal Anand, Chief Technology and AI Officer, F5. – Synergia między solidnym dostarczaniem aplikacji i usługami bezpieczeństwa F5 a przyspieszonymi obliczeniami NVIDIA, tworzy potężny ekosystem. Dzięki tej integracji klienci zyskują lepszą widoczność, szczegółową kontrolę i zoptymalizowaną wydajność dla ich obciążeń AI, od warstwy akceleracji sprzętowej aż po interfejs aplikacji.
F5 BIG-IP Next dla Kubernetes oferuje:
- Usprawnione dostarczanie usług AI: BIG-IP Next płynnie integruje się z sieciami klientów, zmniejszając opóźnienia i zapewniając wysokowydajne równoważenie obciążeń. Dzięki temu radzi sobie z ogromnymi ilościami danych generowanych przez modele AI.
- Większą kontrolę nad wdrożeniami AI: Rozwiązanie zapewnia scentralizowany punkt integracji z nowoczesnymi sieciami AI oraz szczegółowe monitorowanie. Obsługuje różne protokoły L7[v] poza HTTP, zapewniając zaawansowaną kontrolę przepływu danych o wysokiej wydajności.
- Zabezpieczenie infrastruktury AI: Automatyczne wykrywanie i zabezpieczanie punktów końcowych chroni środowiska służące do szkolenia i wnioskowania AI. Dodatkowo, rozwiązanie izoluje aplikacje AI od ukierunkowanych zagrożeń, wzmacniając integralność i suwerenność danych oraz oferuje funkcje szyfrowania kluczowe dla nowoczesnych środowisk AI.
BIG-IP Next dla Kubernetes, działający na jednostkach NVIDIA BlueField-3 DPU, jest już dostępny.
[i] Wysokowydajne jednostki NVIDIA BlueField-3 DPU (Data Processing Unit) to specjalne procesory zaprojektowane do przetwarzania zadań związanych z obsługą danych w centrach danych, sieciach i systemach sztucznej inteligencji. DPUs są zoptymalizowane pod kątem zadań sieciowych, zarządzania ruchem danych i zabezpieczeń, co odciąża główny procesor (CPU) w serwerach, pozwalając na lepsze wykorzystanie zasobów i zwiększenie wydajności.
[ii] Termin odnosi się do chmurowych rozwiązań stosowanych przez operatorów telekomunikacyjnych (telco) do zarządzania sieciami i danymi.
[iii] Wirtualnej sieci dostępu radiowego, która działa bliżej użytkowników końcowych, co pozwala na szybsze przesyłanie danych i zmniejszenie opóźnień
[iv] Wdrażania architektury rozproszonej (Distributed Access Architecture) w sieciach dostawców wielosystemowych (Multiple System Operator)
[v] Protokoły L7 (Layer 7) odnoszą się do siódmej warstwy modelu OSI, czyli warstwy aplikacji, która obsługuje wymianę danych między aplikacjami. Jest to poziom, na którym działają protokoły takie jak HTTP, HTTPS, FTP, SMTP, czy DNS.

Emitel zbudował sieć do monitorowania lotu dronów na 8 lotniskach w całej Polsce

Emitel i Miasto Poznań zacieśniają współpracę na rzecz innowacji w Wielkopolsce

Praca w IT bez doświadczenia. Liderzy EY GDS o tym, jak odnaleźć swoją ścieżkę do sukcesu na rynku IT
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Medycyna

Komisja Europejska pracuje nad nową dyrektywą tytoniową. Papierosy w Polsce mogą znacznie podrożeć
W Brukseli trwa dyskusja nad zmianami w unijnej dyrektywie tytoniowej. Minimalna stawka akcyzy na paczkę papierosów w UE może wzrosnąć nawet dwukrotnie: z 1,8 euro do 3,6 euro. Doprowadziłoby to do wyrównania cen papierosów pomiędzy państwami UE. Wzrost cen byłby najbardziej dotkliwy dla palaczy z tych państw, które przystąpiły do UE w 2004 roku, w tym Polski, z uwagi na znacznie niższy udział akcyzy w cenie paczki papierosów niż nowe minima unijne. Nad Wisłą paczka papierosów mogłaby kosztować nawet ok. 40 zł. Nowa dyrektywa tytoniowa może zostać otwarta już podczas duńskiej prezydencji w Radzie Unii Europejskiej.
Problemy społeczne
Sztuczna inteligencja napędza innowacje, ale pochłania ogromne ilości prądu. Rośnie potrzeba bardziej energooszczędnych rozwiązań

Trenowanie dużych modeli językowych, takich jak ChatGPT, wymaga ogromnych zasobów obliczeniowych, co przekłada się na znaczące zużycie energii, porównywalne z roczną konsumpcją małych państw. Eksperci podkreślają, że konieczne jest projektowanie bardziej energooszczędnych algorytmów i systemów, które ograniczą ślad węglowy AI. Jednocześnie sztuczna inteligencja może też wspierać działania na rzecz klimatu, pomagając w optymalizacji zużycia energii i efektywniejszym zarządzaniu zasobami.
Medycyna
Polscy naukowcy rozwijają technologię hodowania bionicznej trzustki. Może ona rozwiązać problem cukrzycy insulinozależnej

Zespół polskich naukowców rozwija technologię hodowania bionicznej trzustki, którą będzie można wszczepiać pacjentom kwalifikowanym obecnie do przeszczepu od zmarłego dawcy. Taka procedura jest stosowana w najcięższych przypadkach cukrzycy typu 1, a niekiedy również w cukrzycy typu 2. Badacze, tworząc innowacyjną metodę leczenia dołożyli starań, by rozwiązać ryzyko najgroźniejszego powikłania, jakim jest odrzucenie wszczepianego narządu poprzez wykrzepianie. Do zbudowania narządu będą wykorzystywane komórki pacjenta, więc układ immunologiczny nie powinien odczytywać go jako obcy.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.