Mówi: | Andrzej Niziołek |
Funkcja: | starszy menedżer regionalny |
Firma: | Veeam Software |
Blisko 60 proc. firm ma problem z dostępnością usług informatycznych. Jednocześnie dyrektorzy IT nie znają rzeczywistych kosztów przestojów w firmie
59 proc. przedsiębiorstw zmaga się z deficytem dostępności, czyli z różnicą pomiędzy potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT – wynika z raportu przygotowanego na zlecenie firmy Veeam Software. Ponad 70 proc. firm przyznaje, że nieplanowane przestoje opóźniają wdrażanie rozwiązań informatycznych. Jednocześnie dyrektorzy IT nie znają rzeczywistych, wymiernych kosztów przestojów w swoich firmach.
Ankieta przeprowadzona wśród pięćdziesięciu menadżerów działów IT dużych i średnich przedsiębiorstw wykazała, że jedynie 56 proc. z nich jest pewnych, że aktualnie stosowane przez nich rozwiązania potrafią przywrócić do działania infrastrukturę informatyczną w czasie przewidzianym przez umowę o gwarantowanym świadczeniu usług. Okazuje się bowiem, że w 43 proc. przypadków próby odzyskania danych trwają zbyt długo, a w 41 proc. nie udaje się odzyskać wszystkich informacji. Przeciętny czas przestojów w firmach IT wynosi 29 minut, tymczasem menadżerowie IT są w stanie zaakceptować znacznie krótszy przestój.
– Dyrektorzy podają dwa parametry, w jednym odnoszą się do aplikacji krytycznych dla biznesu firmy, w drugim do aplikacji mniej krytycznych, które nie są tak bardzo ważne dla ciągłości działania firmy. Tolerowany czas przestoju aplikacji najważniejszych dla firmy to zaledwie 12 minut, dla niekrytycznych prawie 5 godzin, to ogromna różnica – mówi w rozmowie z agencją informacyjną Newseria Innowacje Andrzej Niziołek, starszy menedżer regionalny Veeam Software, dostawcy rozwiązań zapewniających stałą dostępność usług IT na potrzeby przedsiębiorstw działających non stop.
Poważnym problemem mogą być koszty przestojów. Zależą one od rodzaju przedsiębiorstwa, jego wielkości, rodzaju świadczonych usług czy rynku, na którym działa. Jednak koszty takie mogą być bardzo duże. Ponemon Institute w swoim ubiegłorocznym raporcie informuje, że średni koszt przestoju w centrum bazodanowym wzrósł z 505 tys. dol. w roku 2010 do 740 tys. dol. w 2016 r. Oznacza to wzrost o 38 proc.
Jeszcze szybciej rosną koszty maksymalne, które zwiększyły się w latach 2010–2016 o 81 proc., a wśród badanych przedsiębiorstw rekordowy maksymalny koszt przestoju wyniósł ponad 2,4 mln dol. Najszybciej rosnącą przyczyną przestojów w centrach bazodanowych są ataki cyberprzestępców. W 2010 roku były one przyczyną 2 proc. przestojów, a w roku 2016 już 22 proc.
– Z naszego badania wynika, że dyrektorzy informatyki nie dysponują danymi o kosztach i konsekwencjach finansowych przestojów systemów informatycznych, obecnie rzadko który ma nawet umowy SLA (Service Level Agreement, umowa o jakości usług IT – przyp. red.) ze swoimi klientami biznesowymi poparte takimi wyliczeniami, co oznacza, że ewentualna niedostępność mierzona jest w godzinach, dniach lub w liczbie danych utraconych, nie jest jednak wyceniania w postaci konkretnych wartości finansowych – mówi Andrzej Niziołek.
Według raportu Gartnera „Critical Capabilities for Application Performance Monitoring” dla małych firm (o rocznych obrotach poniżej 50 mln dol.) średni koszt godzinnego przestoju wynosi 8,5 tys. dol. Dla przedsiębiorstw średniej wielkości (obroty rzędu od 50 mln do 1 mld dol.) koszt ten rośnie już do 215,5 tys. dol., a dla przedsiębiorstw największych wynosi 686 tys. dol. Zaledwie 5 proc. tych kosztów to – jak dowiadujemy się z badań prowadzonych przez IHS – koszty naprawy infrastruktury. Kolejne 17 proc. to koszty związane z utratą możliwości biznesowych w czasie przestoju. Największą część, bo 78 proc. kosztów, stanowi zmniejszona produktywność osób zatrudnionych.
Polscy przedsiębiorcy sceptycznie podchodzą do pomysłów cyfrowej transformacji. Z raportu Veeam Software wynika, że więcej przedsiębiorstw chce konsolidować już posiadaną infrastrukturę – chęć taką wyraża 34 proc. ankietowanych – niż polegać na chmurze prywatnej (27 proc.). Osoby odpowiedzialne za działy IT uważają, że zamiast inwestować w chmurę, należy się skupić na bardziej tradycyjnych działaniach, takich jak zwiększenie wirtualizacji serwerów (43 proc.), aktualizacja systemów operacyjnych (39 proc.) oraz rozbudowa pamięci masowych (36 proc.). Jedynie 20 proc. respondentów uważa, że chmura zapewnia wyższy poziom usług w porównaniu z firmowym działem IT, a 57 proc. uważa, że nie potrzebują chmury, gdyż jakość obu usług jest porównywalna.
– Dyrektorzy deklarują wolę, chęć i potrzebę transformacji cyfrowej, zauważają rynek, który się zmienia, trendy, które wymuszają taką właśnie transformację cyfrową, ale z drugiej strony cyfrowa transformacja oznacza, że dyrektor IT przestaje być funkcją operacyjną, a staje się funkcją usługową, która w krytyczny sposób wspiera biznes firmy. To oznacza, że musi być gotowy nie tylko dostarczać infrastrukturę i usługi, lecz także ponosi odpowiedzialność za dostępność tych systemów i musi gwarantować swoją osobą i swoim biznesem ciągłość biznesu firmy. To już się dzieje na Zachodzie, my będziemy gotowi na to za kilka lat – stwierdza ekspert.
Obecnie w chmurze działa tylko 11 proc. aplikacji używanych przez badane przedsiębiorstwa. Zauważalne jest jednak coraz większe zainteresowanie usługami chmurowymi. Z badań wynika, że w ciągu najbliższych dwóch lat odsetek ten może wzrosnąć do 23 proc.
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Problemy społeczne
Dane satelitarne będą częściej pomagać w walce z żywiołami w Polsce. Nowy system testowany był w czasie wrześniowej powodzi
Światowa Organizacja Meteorologiczna podaje, że w ciągu ostatnich 50 lat pięciokrotnie zwiększyła się liczba katastrof naturalnych na świecie. Jednocześnie nowe możliwości w zakresie wczesnego ostrzegania i zarządzania kryzysowego pozwoliły ograniczyć liczbę ofiar trzykrotnie. Coraz częściej pomagają w tym dane satelitarne, czego przykładem było wykorzystanie nowego systemu Poland’s Civil Security Hub w trakcie wrześniowej powodzi na południowym zachodzie kraju.
Firma
Rośnie rola pracowników w podejmowaniu decyzji zarządczych. Firmy chętniej korzystają z ekspertów zewnętrznych
Szanse i zagrożenia związane z nowymi technologiami, w szczególności rozwój sztucznej inteligencji, cyberbezpieczeństwa oraz zrównoważonego rozwoju i zmienność geopolityczna – to te tematy zyskują na znaczeniu na agendzie zarządów oraz rad nadzorczych działających w Europie spółek giełdowych. Jak wskazuje Raport Board Monitor Europe 2024, rola tych organów w firmach rośnie. Podobnie jak zaangażowanie pracowników w podejmowaniu decyzji zarządczych.
Zdrowie
Ochrona zdrowia w Polsce ma być bardziej oparta na jakości. Obowiązująca od roku ustawa zostanie zmieniona
Od października placówki ochrony zdrowia mogą się ubiegać o akredytację na nowych zasadach. Nowe standardy zostały określone we wrześniowym obwieszczeniu resortu zdrowia i dotyczą m.in. kontroli zakażeń, sposobu postępowania z pacjentem w stanach nagłych czy opinii pacjentów z okresu hospitalizacji. Standardy akredytacyjne to uzupełnienie obowiązującej od stycznia br. ustawy o jakości w opiece zdrowotnej i bezpieczeństwie pacjenta, która jest istotna dla całego systemu, jednak zdaniem resortu zdrowia wymaga poprawek.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.