Newsy

Blisko 60 proc. firm ma problem z dostępnością usług informatycznych. Jednocześnie dyrektorzy IT nie znają rzeczywistych kosztów przestojów w firmie

2017-10-09  |  06:00
Mówi:Andrzej Niziołek
Funkcja:starszy menedżer regionalny
Firma:Veeam Software
  • MP4
  • 59 proc. przedsiębiorstw zmaga się z deficytem dostępności, czyli z różnicą pomiędzy potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT – wynika z raportu przygotowanego na zlecenie firmy Veeam Software. Ponad 70 proc. firm przyznaje, że nieplanowane przestoje opóźniają wdrażanie rozwiązań informatycznych. Jednocześnie dyrektorzy IT nie znają rzeczywistych, wymiernych kosztów przestojów w swoich firmach.

    Ankieta przeprowadzona wśród pięćdziesięciu menadżerów działów IT dużych i średnich przedsiębiorstw wykazała, że jedynie 56 proc. z nich jest pewnych, że aktualnie stosowane przez nich rozwiązania potrafią przywrócić do działania infrastrukturę informatyczną w czasie przewidzianym przez umowę o gwarantowanym świadczeniu usług. Okazuje się bowiem, że w 43 proc. przypadków próby odzyskania danych trwają zbyt długo, a w 41 proc. nie udaje się odzyskać wszystkich informacji. Przeciętny czas przestojów w firmach IT wynosi 29 minut, tymczasem menadżerowie IT są w stanie zaakceptować znacznie krótszy przestój.

    – Dyrektorzy podają dwa parametry, w jednym odnoszą się do aplikacji krytycznych dla biznesu firmy, w drugim do aplikacji mniej krytycznych, które nie są tak bardzo ważne dla ciągłości działania firmy. Tolerowany czas przestoju aplikacji najważniejszych dla firmy to zaledwie 12 minut, dla niekrytycznych prawie 5 godzin, to ogromna różnica – mówi w rozmowie z agencją informacyjną Newseria Innowacje Andrzej Niziołek, starszy menedżer regionalny Veeam Software, dostawcy rozwiązań zapewniających stałą dostępność usług IT na potrzeby przedsiębiorstw działających non stop.

    Poważnym problemem mogą być koszty przestojów. Zależą one od rodzaju przedsiębiorstwa, jego wielkości, rodzaju świadczonych usług czy rynku, na którym działa. Jednak koszty takie mogą być bardzo duże. Ponemon Institute w swoim ubiegłorocznym raporcie informuje, że średni koszt przestoju w centrum bazodanowym wzrósł z 505 tys. dol. w roku 2010 do 740 tys. dol. w 2016 r. Oznacza to wzrost o 38 proc.

    Jeszcze szybciej rosną koszty maksymalne, które zwiększyły się w latach 2010–2016 o 81 proc., a wśród badanych przedsiębiorstw rekordowy maksymalny koszt przestoju wyniósł ponad 2,4 mln dol. Najszybciej rosnącą przyczyną przestojów w centrach bazodanowych są ataki cyberprzestępców. W 2010 roku były one przyczyną 2 proc. przestojów, a w roku 2016 już 22 proc.  

    – Z naszego badania wynika, że dyrektorzy informatyki nie dysponują danymi o kosztach i konsekwencjach finansowych przestojów systemów informatycznych, obecnie rzadko który ma nawet umowy SLA (Service Level Agreement, umowa o jakości usług IT – przyp. red.) ze swoimi klientami biznesowymi poparte takimi wyliczeniami, co oznacza, że ewentualna niedostępność mierzona jest w godzinach, dniach lub w liczbie danych utraconych, nie jest jednak wyceniania w postaci konkretnych wartości finansowych – mówi Andrzej Niziołek.

    Według raportu Gartnera „Critical Capabilities for Application Performance Monitoring” dla małych firm (o rocznych obrotach poniżej 50 mln dol.) średni koszt godzinnego przestoju wynosi 8,5 tys. dol. Dla przedsiębiorstw średniej wielkości (obroty rzędu od 50 mln do 1 mld dol.) koszt ten rośnie już do 215,5 tys. dol., a dla przedsiębiorstw największych wynosi 686 tys. dol. Zaledwie 5 proc. tych kosztów to – jak dowiadujemy się z badań prowadzonych przez IHS – koszty naprawy infrastruktury. Kolejne 17 proc. to koszty związane z utratą możliwości biznesowych w czasie przestoju. Największą część, bo 78 proc. kosztów, stanowi zmniejszona produktywność osób zatrudnionych.

    Polscy przedsiębiorcy sceptycznie podchodzą do pomysłów cyfrowej transformacji. Z raportu Veeam Software wynika, że więcej przedsiębiorstw chce konsolidować już posiadaną infrastrukturę – chęć taką wyraża 34 proc. ankietowanych – niż polegać na chmurze prywatnej (27 proc.). Osoby odpowiedzialne za działy IT uważają, że zamiast inwestować w chmurę, należy się skupić na bardziej tradycyjnych działaniach, takich jak zwiększenie wirtualizacji serwerów (43 proc.), aktualizacja systemów operacyjnych (39 proc.) oraz rozbudowa pamięci masowych (36 proc.). Jedynie 20 proc. respondentów uważa, że chmura zapewnia wyższy poziom usług w porównaniu z firmowym działem IT, a 57 proc. uważa, że nie potrzebują chmury, gdyż jakość obu usług jest porównywalna.

    – Dyrektorzy deklarują wolę, chęć i potrzebę transformacji cyfrowej, zauważają rynek, który się zmienia, trendy, które wymuszają taką właśnie transformację cyfrową, ale z drugiej strony cyfrowa transformacja oznacza, że dyrektor IT przestaje być funkcją operacyjną, a staje się funkcją usługową, która w krytyczny sposób wspiera biznes firmy. To oznacza, że musi być gotowy nie tylko dostarczać infrastrukturę i usługi, lecz także ponosi odpowiedzialność za dostępność tych systemów i musi gwarantować swoją osobą i swoim biznesem ciągłość biznesu firmy. To już się dzieje na Zachodzie, my będziemy gotowi na to za kilka lat – stwierdza ekspert.

    Obecnie w chmurze działa tylko 11 proc. aplikacji używanych przez badane przedsiębiorstwa. Zauważalne jest jednak coraz większe zainteresowanie usługami chmurowymi. Z badań wynika, że w ciągu najbliższych dwóch lat odsetek ten może wzrosnąć do 23 proc.

    Kalendarium

    Więcej ważnych informacji

    Newseria na XVI Europejskim Kongresie Gospodarczym

    Jedynka Newserii

    Jedynka Newserii

    Venture Cafe Warsaw

    Transport

    Ochrona środowiska

    Stworzenie cyfrowego bliźniaka Ziemi coraz bliżej. Pomoże precyzyjniej przewidywać klęski żywiołowe

    Na początku czerwca mają zostać uruchomione dwa pierwsze komponenty cyfrowej repliki Ziemi. To inicjatywa Komisji Europejskiej, w ramach której powstaje superzaawansowana symulacja zjawisk, m.in. atmosferycznych i klimatycznych, do jakich dochodzi na Ziemi. Oparte na bogatych zbiorach danych, m.in. ze zdjęć satelitarnych, i ich zaawansowanej analizie narzędzia pozwolą z dwutygodniowym wyprzedzeniem przewidywać zdarzenia pogodowe, precyzując prognozę do obszarów podzielonych na kwadraty o boku zaledwie kilku kilometrów. Będą mogły być wykorzystywane także w planowaniu miast, farm wiatrowych czy w rolnictwie. W tworzeniu rozwiązania bierze udział polski dostawca rozwiązań chmurowych.

    Handel

    Przygotowania do wdrożenia systemu kaucyjnego idą pełną parą. Przyszli operatorzy przeciwni zmianie daty na 2026 rok

    Wkrótce Sejm ma się zająć nowym projektem przepisów dotyczących systemu kaucyjnego, którego start zaplanowano na styczeń 2025 roku. Przedstawione przez Ministerstwo Klimatu i Środowiska zmiany dotyczą m.in. rezygnacji z podatku VAT i wprowadzenia tzw. mechanizmu podążania kaucji za produktem. – Wszystkie te zmiany oceniamy bardzo pozytywnie, one są niezbędnym elementem dla właściwego funkcjonowania przyszłego systemu kaucyjnego – mówi Aleksander Traple, prezes Zwrotka SA. Jak podkreśla, dalsze odkładanie w czasie terminu uruchomienia systemu kaucyjnego jest bezzasadne, ponieważ branża odpadowa, handel detaliczny i szereg innych podmiotów już od dłuższego czasu przygotowują się do jego wdrożenia.

    Szkolenia

    Akademia Newserii

    Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.