TCO - czyli zarządzanie całkowitymi kosztami IT

Obecnie na świecie jest wykorzystywanych wiele modeli zarządzania kosztami, jednakże najbardziej rozpowszechnionym i kompleksowym podejściem do tego zagadnienia są metodyki TCO (Total Cost of Ownership). Definicyjnie można powiedzieć, że Total Cost of Ownership, czyli Całkowite Koszty Posiadania Informatyki jest to model pomagający wydzielić i zrozumieć podział kosztów informatycznych związanych bezpośrednio i pośrednio z użytkownikiem końcowym (Klientem Wewnętrznym) każdego przedsiębiorstwa. Jest to suma kosztów związanych z zakupem, instalacją i zarządzaniem środowiskiem infrastruktury informatycznej (komputery klasy PC, serwery, urządzenia sieciowe, aplikacje, czy systemy).
Doświadczenia organizacji pokazują również, że jakkolwiek model określa dość precyzyjnie gdzie znajdują się główne źródła redukcji kosztów, to jego wprowadzenie, a tym bardziej czerpanie korzyści z jego implementacji jest niezwykle trudne.
Całość działań podejmowanych w kwestii redukcji kosztów i optymalnej alokacji zasobów wykracza poza prosty model TCO. Cele zazwyczaj są jasne:
  • Osiągnięcie pozycji lidera w tworzeniu i dystrybuowaniu przewagi ekonomicznej poprzez redukcję kosztów posiadania zasobów informatycznych;
  • Pełne wykorzystanie stworzonej przewagi jako wewnętrznej wizytówki naszych produktów i usług;
  • Podnoszenie poziomu znajomości wpływu ekonomii na decyzje dotyczące zasobów informatycznych (chodzi tu nie tylko o kwestie zakupu ale również stopy zwrotu i amortyzację);
  • Wprowadzenie narzędzi dla mierzenia i badania wartości.
Cykl życia 
Większość modeli TCO opiera się o standardowy cykl życia związany ze sprzętem i oprogramowaniem w każdej firmie.
 



Charakteryzuje się on pięcioma etapami, z których każdy związany jest z innymi kosztami ponoszonymi przez IT (zakup, planowanie, fizyczne zarządzanie, wsparcie i likwidacja).
 
4 kroki TCO
Realizacja typowego projektu TCO opiera się na czterech cyklicznie wykonywanych krokach, udzielających odpowiedzi na pytania:
 
  • Gdzie jesteśmy dziś? (Podstawą jest określenie obecnego poziomu wydatków i kosztów związanych z TCO. )
  • Benchmark. (Czyli spojrzenie jak wyglądają nasze koszty w porównaniu z innymi. Porównując profil naszej działalności ze średnimi profilami branży dowiadujemy się, w których obszarach jesteśmy lepsi, a które wymagają ulepszenia w stosunku do przeciętnej firmy podobnej do naszej i używającej podobnych systemów. )
  • Dokąd możemy pójść? (Wynik uzyskany w benchmarku wskazuje nam drogę ulepszeń. W tym momencie możemy wybrać jedną z wielu dróg zmian, od zmiany technologii, poprzez poprawę procesów organizacyjnych, aż po praktyki zarządzania. )
  • Jak dobrze realizujemy plany ulepszeń? (Audyt kontrolny, umożliwiający sprawdzenie, czy realizowane plany ulepszeń i optymalizacji prowadzą nas do spodziewanych zmian w naszym profilu kosztów.)  
Przedmiot TCO
Typowa analiza TCO obejmuje swoim zakresem następujące elementy IT:
 
Dlaczego mierzymy TCO?
Jak dużo pieniędzy przeznacza Twoja firma każdego roku na rozwój infrastruktury teleinformatycznej i jakimi przesłankami kieruje się przy wyborze sprzętu, oprogramowania, czy akcesoriów? Czy jesteś w stanie dokładnie określić jak procentowo wydatki te rozkładają się na zakup sprzętu, oprogramowania, serwis i szkolenia, czy jesteś w stanie sprawdzić gdzieś takie informacje a co ważniejsze czy potrafisz oszacować odnoszone z tego tytułu korzyści?
Badania przeprowadzone przez producentów sprzętu i oprogramowania wśród profesjonalnych organizacji ekonomicznych ujawniają, że na 25 osób podejmujących tego rodzaju decyzje tylko jedna zdaje sobie sprawę że koszty ponoszone po okresie początkowej alokacji zasobów stanowią największą część nakładów na rozwój infrastruktury informatycznej (mogą one sięgać aż 80% całości wydatków). Wielu managerów koncentruje się na kontroli wydatków na dobra trwałe, zamiast zwrócić uwagę na okres poalokacyjny.
Kluczem do sukcesu jest więc zrozumienie na jakiej płaszczyźnie generowane są najpoważniejsze wydatki. Do tego właśnie celu opracowano model TCO.

Wyniki TCO
Niezależne organizacje i stowarzyszenia prowadzące studia nad TCO, przedstawiają wyniki badań, które mogą stanowić podstawę do zrozumienia istoty TCO. Każda z firm budująca model TCO powinna mieć na uwadze dostosowanie go do swojej specyfiki i środowiska teleinformatycznego. Jednocześnie należy jednak pamiętać, iż podstawowe standardy modelu zostały zdefiniowane a sprostanie ich wymaganiom decyduje o efektywności wprowadzanych rozwiązań.
Zaleca się również prowadzenie poszerzonych analiz kosztowych co umożliwia odpowiednie bilansowanie wydatków na administrację systemami z wydatkami serwisowymi.

Model TCO

TCO służy do oceny bieżących i prognozowanych wydatków na infrastrukturę teleinformatyczną. Model uwzględnia koszty bezpośrednie ujawnione w budżetach i listach płac, oraz koszty pośrednie (ukryte) – wyznaczone jako koszty związane z działaniami użytkowników oraz z przestojami. Model TCO służy nie tylko redukcji całkowitych kosztów związanych z posiadaniem zasobów teleinformatycznych, ale także analizie różnic między badanym przedsiębiorstwem a danymi porównawczymi modelu firm i stowarzyszeń niezależnych. Najważniejszym składnikiem modelu jest – oprócz systemu klasyfikacji kosztów zawierającego bogatą listę kategorii – także baza danych statystycznych o kosztach informatyki dla wielu branż.
 
Struktura modelu TCO
Typowy podział kosztów według modelu TCO obejmuje dwie grupy:
Koszty bezpośrednie:
  • Sprzęt i oprogramowanie;
  • Wsparcie;
  • Zarządzanie i administracja;
  • Planowanie i rozwój;
  • Koszty komunikacyjne.
Koszty pośrednie:
  • Przestoje;
  • Koszty użytkownika końcowego.
 

Czynniki Kształtujące TCO
Redukcja kosztów przebiega w sposób bardziej efektywny jeśli prowadzona jest na 3 równoległych poziomach : szkolenie ludzi, wdrażanie procesów, wprowadzanie technologii, które nie są trudne w serwisowaniu ani tym bardziej w obsłudze i zarządzaniu nimi. Przedsiębiorstwa, które konsekwentnie wdrażają ten model mogą się pochwalić sporymi sukcesami w dziedzinie obniżania kosztów:
  • Ludzie – szkolenia zarówno użytkowników jak i serwisantów;
  • Procesy – automatyzacja procesów, wprowadzanie nowych rozwiązań;
  • Technologia – upowszechnianie nowych rozwiązań technologicznych. 
TCO – Starting Point
Problemem dla każdej z firm wprowadzających TCO jest określenie jakie dokładnie zmiany i innowacje trzeba wprowadzić w każdej z trzech wymienionych wyżej dziedzin. Istnieje kilka modeli pozwalających analizować koszty zgodnie z metodyką TCO. Jeśli jednak nie jesteś pewien, który z modeli będzie najlepszy dla twojej firmy możesz zwrócić się o pomoc do specjalistów.
Analiza kosztów według metodyki TCO jest swego rodzaju audytem informatyki. Analiza TCO przebiega dwoma torami – z jednej strony przeprowadza się ankietę wśród użytkowników końcowych z drugiej strony bada się wiele aspektów funkcjonowania służb i urządzeń informatycznych. Metoda ta jest zatem próbą opisu stanu informatyki w przedsiębiorstwie w danym okresie.

Narzędzia TCO

Największym problemem dla firm jest zazwyczaj sztywne określenie kosztów pośrednich i bezpośrednich. Można wyróżnić dwie warstwy (narzędzia) wyceny TCO mogące rozwiązać ten problem.
 
TCO Snapshot – daje możliwość potencjalnych kategorii kosztowych TCO. Narzędzie zbudowane jest w oparciu o dane z wielu sektorów i branż i uwzględnia wskaźniki budowane w oparciu o Best Practices jak i wskaźniki dla, których źródłem są ankiety przeprowadzane wśród Klientów Firmy;
 
Analiza TCO– daje możliwość bardzo dokładnej analizy kosztowej, w poszczególnych obszarach działalności. Narzędzie to powstało w wyniku przebadania rezultatów osiąganych przez naszych Klientów w następujących dziedzinach:
  • Wizja – określenie powodów, dla których należy wprowadzić TCO, określenie obszarów objętych TCO, zespołu projektowego, podziału odpowiedzialności, źródła danych, wreszcie określenie modelu jaki chcemy realizować wewnątrz firmy;
  • Plan gromadzenia danych - odnosi się on do sposobu gromadzenia danych (ankiety, badania, inne metody). Należy określić jakie dane będą potrzebna dla wybranego modelu TCO oraz z skąd powinny one pochodzić;
  • Analiza danych – zebrane informacje powinny być przeanalizowane z pomocą odpowiednich narzędzi (do każdego modelu proponuje się odpowiednie narzędzia analizy);
  • Raport końcowy – końcowym wynikiem prac zespołu jest raport, jego prezentacji towarzyszą rekomendację odnośnie kroków, które należy podjąć w celu obniżenia TCO. Kroki te mogą wiązać się z usprawnieniem systemu operacyjnego czy wprowadzeniem nowych technologii.
 

A może zarządzanie wartością

Value Based Management...Zarządzanie Wartością jest to styl zarządzania ukierunkowany na motywowanie ludzi, rozwijanie ich umiejętności, promowanie synergii między innowacyjnością i celami przedsiębiorstwa oraz maksymalizacje ogólnej efektywności organizacji.
 
Można powiedzieć, że zorientowanie na wartości to działanie w trzech głównych wymiarach:
  • Zorientowanie na celach i wynikach, przed poszukiwaniem rozwiązań;
  • Stałe podnoszenie świadomości wartości organizacji, ustanawianie miar wartości ich monitorowanie i kontrolowanie;
  • Zorientowanie na funkcjach prowadzących do maksymalnego wyzwalania innowacyjności.
Dobrze wdrożony model budowania wartości w organizacji działa podobnie jak silny magnes, łącząc wszystkich wokół wspólnej sprawy – wokół wartości. Energia i entuzjazm, które udzielają się pracownikom mają wpływ nie tylko na ich sferę zawodową, ale również na życie osobiste, czy społeczne. Sukcesy jednych stymulują drugich, ludzie odzyskują wiarę i nadzieję w to, co wykonują. Z punktu widzenia szefa organizacji jest to uczucie, jakiego niewielu miało okazję doznać. Choćby z tego powodu warto się zastanowić i odpowiedzieć sobie na kilka pytań: 
  • Jakie wartości są dla mnie ważne? A jakie są ważne dla mojej organizacji?
  • Czy to są te same wartości?
  • Czy mogę zrobić coś, aby dostarczać więcej?
  • Jakich wartości moja organizacja dostarcza mojemu przedsiębiorstwu?
  • Czy moi Klienci Wewnętrzni wiedzą, jakie wartości są kreowane przez moją organizację?
Każdy, kto interesuje się zagadnieniem budowania wartości organizacji powinien rozpocząć od udzielenia odpowiedzi na powyższe pytania. 
Okazuje się, że nie jest to wcale proste, zadanie. W pełnym spectrum organizacji znajdują się wartości finansowe, organizacyjne, zachowania, społeczne, kulturalne, etyczne, technologiczne, itd.
Oczywiście głównym wyznacznikiem rozpoczęcia prac nad Wartościami jest konieczność. W trudnych czasach wysokiej konkurencji zarządy oczekują od szefów komórek organizacyjnych nie tylko ograniczania kosztów i zwiększania efektywności działań, ale także umiejętności udzielenia odpowiedzi na pytania:
  • Dlaczego moja komórka organizacyjna (dział, departament) jest potrzebna przedsiębiorstwu?
  • Jaka jest faktyczna wartość mojej organizacji dla przedsiębiorstwa?
Koncepcja zarządzania wartością przedstawia relacje pomiędzy różnorodnymi potrzebami, których celem jest spełnienie oczekiwań Klientów, a zasobami potrzebnymi do ich dostarczenia.
Tak naprawdę trzeba sobie uświadomić jedno podstawowe założenie Zarządzania Wartością, które w uproszczeniu można przedstawić w formie pytania, otóż:
Co jest niezbędne do zaspokojenia potrzeb Klienta? 
Odpowiedź jest jednoznaczna:
Wszystko to, co jest potrzebne do satysfakcjonującego zrealizowania jego potrzeb. 
 
Innym aspektem procesu zarządzania wartością jest budowanie wartości dla akcjonariuszy. Taki styl kierowania przedsiębiorstwem jest zorientowany na wzrost wartości rynkowej przedsiębiorstwa. Kreowanie wartości dla akcjonariuszy wymaga wprowadzenia oceny działalności za pomocą mierników opartych na wartości dla akcjonariuszy. Dobrze sformułowane cele powinny:
  • Zapewniać maksymalizację zwrotu dla akcjonariuszy równoważąc interesy innych (Klientów, pracowników);
  • Być mierzalne i mieć ustalone priorytety;
  • Być zbudowane według struktury podrzędności (cele wyższego rzędu zawierają w sobie cele niższego rzędu).
W zarządzaniu wartością istotne jest właściwe zbudowanie strategii i określenie miar jej osiągnięcia. Celem strategicznym powinno być wytworzenie trwałej i trudnej do naśladowania przewagi konkurencyjnej, zaś miary powinny być jednoznacznie skorelowane z korzyściami dla właścicieli. Stąd też nadrzędną miarą jest zazwyczaj generowanie zysku netto w perspektywie kilkuletniej. Należy tu pamiętać, że zysk jest istotnym elementem, jednakże:
  • Bazuje na danych historycznych (nie przedstawia prospektu na przyszłość);
  • Może być zafałszowany ;
  • Nie informuje jednoznacznie o stanie gotówki (chociażby ze względu na odpisy amortyzacyjne);
  • Nie uwzględnia zmian pieniądza w czasie;
  • Nie uwzględnia inwestycji w majątek (trwaly i obrotowy).
Z punktu widzenia akcjonariuszy równie istotnym elementem jest wycena wartości niematerialnych aktywów przedsiębiorstwa.
Obecnie spotyka się różnorodne metodyki podejścia do zarządzania wartością przedsiębiorstwa, o wyborze i zastosowaniu właściwej powinna decydować dogłębna analiza potrzeb i oczekiwanych efektów podjętych działań.

Model dojrzałości

 
Organizacje często mają wdrożone niektóre elementy zarządzania wartością. Jednakże w jaki sposób stwierdzić jak bardzo jesteśmy zaawansowani i jak dużo drogi jeszcze przed nami. Pomocna jest tutaj tzw. krzywa dojrzałości organizacji. W większości przypadków model prezentuje pięć poziomów dojrzałości, obejmujących:



Każdy z tych poziomów opisany jest szeregiem kryteriów. Porównanie organizacji polega na odszukaniu tych, które są spełnione w badanej komórce. Im więcej takich kryteriów znajdziemy tym lepiej. Spełnienie wszystkich kryteriów z danego poziomu oznacza, że nasza organizacja jest w drodze na kolejny poziom. Oczywiście oczekiwanym wynikiem na końcu tej długiej drogi jest zbudowanie sobie statusu partnera biznesu w całym przedsiębiorstwie.

Filary zarządzania wartością

Dobrze funkcjonujący model zarządzania wartością opiera się na pięciu filarach:

Perspektywa biznesowa
Decydenci uruchamiający projekty inwestycyjne oczekują, że w wyniku prowadzonych prac przyszłe potrzeby biznesu w zakresie wspierania nowych usług lub produktów będą tak samo dobrze zaspokajane jak potrzeby obecne. Osoby odpowiedzialne za inwestycje i rozwój mają pełną dowolność w zakresie alokowania ograniczonych zasobów, a wiec powinni to robić tak, aby móc dostarczyć w krótkim czasie produkty wysokiej wartości przy jednoczesnym eliminowaniu ryzyka podjęcia niewłaściwych decyzji długoterminowych.

Biznesowy wpływ na procesy 
W skrócie można powiedzieć, ze procesy biznesowe oraz procesy technologiczne są to dwie strony tego samego medalu. Wprowadzenie zmiany w jednym spowoduje zmiany w drugim. Stąd kluczowe jest wzajemne kooperowanie przy realizacji wszystkich ważnych zadań mogących mieć wpływ na realizację procesów.

Architektura 
Technologia używana przez organizację jest życiodajną siłą w dzisiejszym szybkozmiennym środowisku biznesowym. Jednym z ważniejszych zagadnień jest tutaj wypracowanie konektora pomiędzy strategią biznesową, procesami, organizacją i technologią, którym powinno być zdefiniowanie roli architektury w budowie i realizacji strategii biznesowej. Powinno to stanowić swego rodzaju przewodnik mówiący, w jaki sposób należy dokonywać selekcji, implementacji, integracji i zarządzania zasobami technologicznymi. Oczywiście konieczne jest tutaj wsparcie poprzez odpowiednie metodyki i technologie.

Zwrot z inwestycji 
Jest to zagadnienie, które wiele osób rozważa przed podjęciem decyzji o inwestowaniu, zwykle wymagane są twarde i mocne argumenty, zanim zostanie podjęta decyzja. Tymczasem celem większości inwestycji jest zapewnienie możliwości dostarczania wartości dla organizacji. Oczywiście w celu zapewnienia osiągnięcia zwrotu z inwestycji, konieczne jest współgranie wszystkich filarów miedzy sobą.

Zarządzanie ryzykiem 
To zagadnienie jest wielokrotnie pomijane, bądź bagatelizowane w projektach. Często też jest to jeden z głównych powodów nie zakończenia projektów z sukcesem. Ważne jest, aby nie tylko wyszukiwać ryzyka, ale również podejmować działania, które je wyeliminują. Formalna, ustrukturalizowana analiza ryzyka powinna być jednym z podstawowych kryteriów dopuszczania projektów do realizacji.

Proces zarządzania wartością

Wdrożenie procesu Zarządzania Wartością wymaga gruntownego i kilkakrotnego przeanalizowania funkcjonowania wszystkich pięciu filarów.
Poniższy schemat przedstawia kolejność działań w procesie budowania wartości, na przykładzie organizacji IT.
 

Jak widać pierwszym analizowanym elementem jest oczywiście kontekst biznesowy organizacji. To na jego podstawie przechodząc przez poszczególne filary będziemy dokonywać analiz.
W kolejnym kroku identyfikujemy reguły i definiujemy standardy, którymi będziemy się kierować.
W ten sposób jesteśmy uzbrojeni, aby przystąpić do właściwych analiz.
Wdrożenie rekomendacji wynikających z analiz przybliża nas do osiągnięcia wartości, na których nam zależy.

Czynniki sukcesu

Budowanie wartości jest procesem bardzo długotrwałym i niestety żmudnym.
W dodatku wymaga od szefa organizacji łączenia w jeden system zarządzania elementów, które zazwyczaj nie występują łącznie. 
 
Typowe cechy takiego stylu zarządzania opierają się na:
  • Kładzeniu dużego nacisku na pracę zespołową. Zachęcanie i nagradzanie ludzi za wspólne poszukiwanie rozwiązań;
  • Zapewnienie wszystkim jednakowego startu – udzielanie kredytu zaufania;
  • Badanie satysfakcji Klientów;
  • Traktowaniu komunikacji jako kluczowego elementu operacyjnego zarządzania. Zbliżanie do siebie ludzi poprzez zapewnienie komunikacji między zespołami zajmującymi się różnymi, niezależnymi i niezwiązanymi ze sobą zagadnieniami;
  • Skoncentrowaniu uwagi na funkcjonalnym podejściu do zagadnień, w pierwszej kolejności zawsze udzielanie odpowiedzi na pytanie: „co chcemy uzyskać?”;
  • Budowanie atmosfery promującej kreatywność i innowacyjność;
  • Zorientowanie na potrzeby Klienta Wewnętrznego;
  • Zorientowanie na jakość dostarczanych działań i produktów;
  • Przekazywanie ludziom odpowiedzialności i uprawnień do pełnienia funkcji właścicieli kluczowych elementów procesów wspierających główne procesy biznesowe organizacji;
  • Itd.

Dobre praktyki zarządzania kosztami IT

Best Practices wskazuje na obszary i konkretne działania, które Twoja organizacja powinna wdrożyć, aby uzyskać „namacalne” obniżenie kosztów utrzymania środowiska informatycznego.
Zarządzanie systemami jest sprawą kluczową aczkolwiek panuje powszechne przekonanie o problematyczności tego zagadnienia. Głównym problemem nie jest jednak krnąbrność systemów ale niechęć firm do inwestowania w efektywne systemy zarządzania nimi. Praktyka jednoznacznie wskazuje na możliwość znacznego obniżenia kosztów użytkowania komputerów dzięki wprowadzeniu odpowiednich narzędzi administracyjnych. Wdrożenie efektywnego systemu zarządzania w połączeniu z dobrze zarządzanym systemem operacyjnym generuje konkretną wartość.

Stosunkowo szybkie efekty można uzyskać w kilku obszarach.

Ułatwienia dla Użytkowników PC
Prawidłowo administrowana i rozwijana sieć komputerowa umożliwia firmie osiągnięcie przewagi na rynku i obniża wskaźnik TCO. Znamy odpowiedzi na podstawowe pytania pojawiające się w trakcie użytkowania. Doskonale zdajemy sobie sprawę, że Klient chce nie tylko mieć możliwość korzystania z komputera, chce mieć również pewność, że jego komputer pracuje w najbardziej efektywny sposób.
 
Zarządzanie Help Desk
Help Desk daje możliwość skorzystania z fachowej pomocy w momencie problemów ze sprzętem lub z oprogramowaniem. Zarządzanie tym obszarem powinno uwzględniać zarządzanie problemami, bazami danych gromadzącymi informacje o zgłoszeniach i wykaz typowych usterek oraz centrum telefonicznym, do którego napływają zgłoszenia. Konieczna jest też możliwość monitorowania komputerów użytkowników.Na komputerze użytkownika po wybraniu odpowiedniej opcji powinna się pojawiać informacja o sposobie kontaktu z Help Desk’iem oraz interaktywny przewodnik, zawierający opis możliwych problemów i ułatwiający ich klasyfikację.
 
Automatyczne Zarządzanie Zasobami
Automatyczne zarządzanie zasobami zawiera zdalne wsparcie, automatyczną inwentaryzację i scentralizowane repozytorium danych, które umożliwiają planowanie finansowe, administracyjne i techniczne oraz administrowanie systemem. Zarządzanie danymi wewnątrz systemu odnosi się również do inwentaryzacji software i hardware, aktualizacji i utrzymania danych.
 
Inwentaryzacja Software
Powinna istnieć aktualna lista (najlepiej w formie elektronicznej) zawierająca szczegółowe informacje na temat klientów, sieci, i zainstalowanego software (wraz z okresami ważności licencji, datą nabycia, użytkownikiem oraz innymi istotnymi informacjami. Informacje powinny być magazynowane w centralnym repozytorium. Wszystkie dane powinny być automatycznie uaktualniane. Inwentaryzowanie softweru jest sprawą krytyczną z punktu widzenia zarządzania licencjami, nie jest to także bez znaczenia dla finansów firmy.
 
Inwentaryzacja Hardware
Powinien istnieć (najlepiej elektroniczny) wykaz sprzętu posiadanego przez firmę. Wykaz powinien zawierać sprzęt wraz z dodatkami do niego, serwery (z uwzględnieniem numerów seryjnych, etykiet, kodów itd.) Inwentaryzowana powinna być też historia finansowa nabywanych komputerów (data nabycia , dodatki, zmiany, przeniesienie, informacje serwisowe. Najdroższymi elementami infrastruktury są zazwyczaj serwery (ich jest też najmniej), dlatego też lista powinna zaczynać się od opisu rodzaju serwera. (daty jego zakupu, specyfikacji użytkowej, stopnia amortyzacji w pierwszym roku, ewentualnych awarii). Wszystkie te dane są istotne z punktu widzenia finansów firmy i oraz planowania zakupów.
 
Elektroniczna Dystrybucja Oprogramowania
Istnieje możliwość instalowania oprogramowania zamawianego przez Klienta zdalnie, bez konieczności dojazdu do niego. Dzięki możliwością technicznym tą samą drogą można dokonywać przeinstalowywania oprogramowania. Obniża to koszty zarządzania oprogramowaniem, pozwala zaoszczędzić czas oraz daje możliwość znacznie częstszych zmian w systemie jeśli takie jest życzenie użytkownika.
 
Automatyczne Zapisywanie i Odzyskiwanie Danych
Automatyczny zapis danych przechowywanych na serwerach sieciowych oraz ich ewentualne odzyskiwanie jest elementem znacznie ułatwiającym pracę użytkowników. Zapis danych odbywa się automatycznie bez ingerencji użytkownika. Istnieje też możliwość odzyskania utraconych danych w razie awarii komputera.
 
Ochrona Sprzętu i Oprogramowania
Fizyczna ochrona sprzętu i oprogramowania daje firmie możliwość zabezpieczenia się przed kradzieżą samego sprzętu lub utratą przechowywanych informacji. Istotna jest też dbałość o odpowiednie oznakowanie posiadanego sprzętu ułatwia też jego identyfikację jeśli jednak dojdzie do kradzieży.
 
Szkolenia Użytkowników
Szkolenia użytkowników są jednym z najbardziej znaczących sposobów obniżania kosztów eksploatacji sprzętu. Z badań wynika, że przeszkolony użytkownik korzysta z pomocy serwisu od 2 do 6 razy rzadziej niż użytkownik nie objęty szkoleniem. Równie ważne są szkolenia personelu serwisującego. Szkolenia te powinny obejmować obsługę sprzętu, programów i aplikacji wykorzystywanych w codziennej pracy użytkowników.
 
Standaryzacja Dostawców
Cechą charakterystyczną modelu TCO jest niskie ryzyko sprzedaży, zarówno jeśli chodzi o sprzęt jak i o usługi związane z jego obsługą. Kluczem do sukcesu jest dobór dostawców, którzy mają przecież bezpośredni wpływ na działalność firmy. Ważne jest więc oszacowanie wiarygodności i odpowiedzialności dostawców powinno być ono czynnikiem warunkującym współpracę. Wskazane jest stworzenie listy autoryzowanych dostawców i zawieranie transakcji tylko z firmami, które się na niej znajdą. Sztywne określenie źródeł zaopatrzenia jest częścią procesu zarządzania zasobami.
 
Platforma Standaryzacji
Platforma standaryzacji zawiera ze standaryzowane komputery, systemy operacyjne oraz odpowiednie serwery. Platforma zawiera więc określony dopuszczalną zestaw konfigurację używanych systemów, serwerów oraz sprzętu na którym pracuje dana firma. Można wprowadzić kilka standardów z uwzględnieniem grup pracowników lub konkretnych projektów.
 
Wprowadzenie w życie wyżej wymienionych rozwiązań pozwoli na obniżenie wskaźnika TCO. Jedynym problemem jest przeprowadzenie proponowanych rozwiązań i ich egzekwowanie wewnątrz firmy. Z badań prowadzonych na przestrzeni lat wśród Klientów wyłania się jasna odpowiedz na pytanie o obniżenie TCO. Podstawowe elementy tej układanki koncentrują się w obrębie trzech grup tematycznych:
  • Technologia (zarządzanie sprzętem, systemami i ochrona zasobów);
  • Procesy (standaryzacja);
  • Umiejętności ludzkie (szkolenia).
 
Wprowadzenie odpowiednich zmian i nowych technologii w tych dziedzinach stanowi gwarancję osiągnięcia założeń modelu TCO.

TBO - Total Benefits of Ownership

Nowoczesną metodą oceny efektywności przez pomiar całkowitych korzyści posiadania jest metoda TBO (Total Benefits of Ownership).
 
Metoda ta jest zbieżna z metodą zarządzania kosztami posiadania (TCO). Miejsce kosztów zajmują w metodzie TBO szacowane korzyści z posiadania systemów informatycznych. W praktyce szacowanie całkowitych korzyści z posiadania tych systemów jest bardzo trudne do określenia, dlatego też pozytywne trendy w obszarze całkowitych korzyści bardzo często rozpatruje się jako pochodną działań w zakresie całkowitych kosztów posiadania (w wielu przypadkach pojawia się wręcz stwierdzenie, że rezultatem kontroli i optymalizacji TCO jest poprawa TBO, bez dokładnego wartościowania skali tej poprawy).
 
Metodycznie rzecz ujmując można powiedzieć, że Total Benefits of Ownership (TBO) jest to model pomagający wydzielić i zrozumieć podział korzyści związanych bezpośrednio i pośrednio z użytkowanymi systemami informatycznymi każdego przedsiębiorstwa. Doświadczenia organizacji pokazują również, że jakkolwiek model określa dość precyzyjnie gdzie znajdują się główne źródła korzyści (systemy core-biznesowe), to jego wprowadzenie, a tym bardziej czerpanie korzyści z jego implementacji jest niezwykle trudne.
 
Cele zazwyczaj są jasne:
  • Osiągnięcie pozycji lidera w tworzeniu i dystrybuowaniu przewagi ekonomicznej poprzez wzrost efektywności posiadanych zasobów informatycznych;
  • Pełne wykorzystanie stworzonej przewagi jako wewnętrznej wizytówki naszych produktów i usług;
  • Podnoszenie poziomu znajomości wpływu ekonomi na decyzje dotyczące zasobów informatycznych (chodzi tu nie tylko o kwestie zakupu ale również stopy zwrotu i amortyzację);
  • Wprowadzenie narzędzi dla mierzenia i badania wartości.
 
Analiza TBO przebiega dwoma torami – z jednej strony przeprowadza się ankietę wśród użytkowników końcowych z drugiej strony bada się wiele aspektów funkcjonowania służb i urządzeń informatycznych. Metoda ta jest zatem próbą opisu korzyści generowanych w organizacji poprzez posiadane zasoby informatyczne w danym okresie.
 
4 kroki TBO
Realizacja typowego projektu TBO opiera się na czterech cyklicznie wykonywanych krokach, udzielających odpowiedzi na pytania:
  • Gdzie jesteśmy dziś? (Podstawą jest określenie obecnego poziomu korzyści)
  • Benchmark. (Czyli spojrzenie jak wyglądają nasze wyniki w porównaniu z innymi. Porównując profil naszej działalności ze średnimi profilami branży dowiadujemy się, w których obszarach jesteśmy lepsi, a które wymagają ulepszenia w stosunku do przeciętnej firmy podobnej do naszej i używającej podobnych systemów)
  • Dokąd możemy pójść? (Wynik uzyskany w benchmarku wskazuje nam drogę ulepszeń. W tym momencie możemy wybrać jedną z wielu dróg zmian, od zmiany technologii, poprzez poprawę procesów organizacyjnych, aż po praktyki zarządzania)
  • Jak dobrze realizujemy plany ulepszeń? (Audyt kontrolny, umożliwiający sprawdzenie, czy realizowane plany ulepszeń i optymalizacji prowadzą nas do spodziewanych zmian w naszym profilu korzyści)
 

Filary zarządzania wartością

Dobrze funkcjonujący model zarządzania wartością opiera się na pięciu filarach:

Perspektywa biznesowa
Decydenci uruchamiający projekty inwestycyjne oczekują, że w wyniku prowadzonych prac przyszłe potrzeby biznesu w zakresie wspierania nowych usług lub produktów będą tak samo dobrze zaspokajane jak potrzeby obecne. Osoby odpowiedzialne za inwestycje i rozwój mają pełną dowolność w zakresie alokowania ograniczonych zasobów, a wiec powinni to robić tak, aby móc dostarczyć w krótkim czasie produkty wysokiej wartości przy jednoczesnym eliminowaniu ryzyka podjęcia niewłaściwych decyzji długoterminowych.

Biznesowy wpływ na procesy 
W skrócie można powiedzieć, ze procesy biznesowe oraz procesy technologiczne są to dwie strony tego samego medalu. Wprowadzenie zmiany w jednym spowoduje zmiany w drugim. Stąd kluczowe jest wzajemne kooperowanie przy realizacji wszystkich ważnych zadań mogących mieć wpływ na realizację procesów.

Architektura 
Technologia używana przez organizację jest życiodajną siłą w dzisiejszym szybkozmiennym środowisku biznesowym. Jednym z ważniejszych zagadnień jest tutaj wypracowanie konektora pomiędzy strategią biznesową, procesami, organizacją i technologią, którym powinno być zdefiniowanie roli architektury w budowie i realizacji strategii biznesowej. Powinno to stanowić swego rodzaju przewodnik mówiący, w jaki sposób należy dokonywać selekcji, implementacji, integracji i zarządzania zasobami technologicznymi. Oczywiście konieczne jest tutaj wsparcie poprzez odpowiednie metodyki i technologie.

Zwrot z inwestycji 
Jest to zagadnienie, które wiele osób rozważa przed podjęciem decyzji o inwestowaniu, zwykle wymagane są twarde i mocne argumenty, zanim zostanie podjęta decyzja. Tymczasem celem większości inwestycji jest zapewnienie możliwości dostarczania wartości dla organizacji. Oczywiście w celu zapewnienia osiągnięcia zwrotu z inwestycji, konieczne jest współgranie wszystkich filarów miedzy sobą.

Zarządzanie ryzykiem 
To zagadnienie jest wielokrotnie pomijane, bądź bagatelizowane w projektach. Często też jest to jeden z głównych powodów nie zakończenia projektów z sukcesem. Ważne jest, aby nie tylko wyszukiwać ryzyka, ale również podejmować działania, które je wyeliminują. Formalna, ustrukturalizowana analiza ryzyka powinna być jednym z podstawowych kryteriów dopuszczania projektów do realizacji.

Implementacja TCO

Droga do sukcesu
Praktyka dowodzi skuteczności rozwiązań w zakresie obniżania kosztów przy jednoczesnym dystrybuowaniu wartości. Przeprowadzone badania wskazują, iż korzystanie z metodyki i mechanizmów TCO ma znaczny wpływ na utrzymanie środowiska teleinformatycznego użytkownika, jak i zarządzania narzędziami pracy grupowej. Wykorzystywanie rekomendacji wynikających z analiz wpływa jednak nie tylko na jakość pracy ale i ma konkretne odzwierciedlenie dla stopy zwrotu inwestycji i redukcji kosztów posiadania.
  
Implementacja TCO
Redukcję kosztów można przeprowadzić z sukcesem jeśli spełnione są następujące warunki:
  • System TCO istnieje na wszystkich szczeblach przedsiębiorstwa;
  • Powstał odpowiedni model kosztowy;
  • Prowadzone są analizy kosztowe;
  • Wdrożone są odpowiednie procesy wspomagające, zebrane dane analizowane są za pomocą zalecanych w modelu narzędzi. 
 
Zyski z Implementacji Modelu
Wdrożenie modelu TCO wymaga czasu, narzędzi umiejętności ale zyski z jego wprowadzenia są ogromne:
  • Określenie ponoszonych nakładów i możliwość szacowania ich wzrostu;
  • Zracjonalizowanie procesu podejmowania decyzji;
  • Możliwość przewidywania i czuwania nad zmianami;
  • Usprawnienie zarządzania kosztami i kontrola budżetowa;
  • Wyższa satysfakcja Klienta;
  • Podniesienie produktywności i funkcjonalności;
  • Wprowadzenie jednolitego standardu;
  • Zmniejszenie ryzyka niezgodności elementów systemu informatycznego;
  • Wzrost wartości biznesowej.
 
Podstawowe różnice między firmami, które korzystają z mechanizmów TCO a tymi, które go nie stosują dotyczą:
  • Stabilizacji ekonomicznej;
  • Kosztów całkowitych;
  • Poziomu usług;
  • Kosztów obsługi;
  • Generowanych zysków.

A może Activity Based Management dla IT

Co to jest ABM?
Activity Based Management (ABM) jest to kompletna metodyka zarządzania kosztami i wydatkami poprzez zarządzanie rachunkiem kosztów działań.
W Polskiej rzeczywistości niewiele jest jednak firm, które ją w praktyce w pełni stosują. Większość firm, które twierdzi, że to robi tak naprawdę zatrzymało się na poziome rozwiniętego Activity Based Costing (ABC), wychodząc z założenia, że zakres i szczegółowość modelu ABC oraz jego integracja z systemami informatycznymi firmy jest domeną ABM. Tymczasem ABM określa w swych założeniach ścisłą integrację ABC z systemem zarządzania firmą, a to oznacza, że informacje uzyskiwane z ABC i podejście procesowe jest obecne w codziennym życiu firmy, w szczególności w:
  • Sposobie organizacji firmy i zakresie obowiązków;
  • Planowaniu i budżetowaniu;
  • Kontroli;
  • Motywowaniu pracowników;
  • Podejmowaniu decyzji strategicznych;
  • Podejmowaniu decyzji operacyjnych.
 
Podstawowym celem ABM jest podnoszenie wartości firmy. Zapewniają to mechanizmy, które udostępniane są w ramach ABC/M:
  • Rozumienie działań i procesów;
  • Zarządzanie rentownością portfeli produktów i klientów oraz segmentów rynkowych;
  • Zrozumienie nośników rentowności;
  • Wzrost zadowolenia klienta oraz poprawa wewnętrznej wydajności, a także ciągłe uczenie się i wprowadzanie usprawnień.
 
Koncepcję metodyki ABC prezentuje również schemat
 
 
 

Aby stosowanie metodyki ABC przyniosło nam korzyści, musimy dobrze rozumieć funkcjonowanie naszego przedsiębiorstwa. Na początek potrzebna jest nam szczegółowa wiedza na temat posiadanych zasobów (finansowych i niefinansowych) oraz jednostek ich użycia. Kolejny krok, to zdefiniowanie działań, które musimy przeprowadzać w celu wykonania produktu/ usługi. Z każdym działaniem związane są informacje o poziomie użycia danego działania oraz stopniu wykorzystania zasobów i innych działań.
Konsekwencją znajomości naszych procesów jest możliwość elastycznego zarządzania przedsiębiorstwem.


Przykładowo dla organizacji informatycznej schemat ABM może wyglądać następująco:


Zagadnienia na które warto zwrócić uwagę podczas wdrażania ABC/M:
  • Jasne i precyzyjne cele wdrożenia;
  • Umiejscowienie ABM w strategii firmy;
  • Budowanie modelu procesów i działań opartego o łańcuch wartości ekonomicznych i tworzenia lub niszczenia wartości dodanej, a nie jak to często się dzieje – modelu oddającego przepływy zasobów i związanej z nią informacji. Gdy chcemy wdrożyć ABM w dużej organizacji nie możemy też myśleć o jednym modelu. Musi to być wiele modeli, których właścicielami są i które rozwijają odpowiednie osoby w ramach organizacji;
  • Budowanie efektywnego systemu zbierania informacji i raportowania. Jest to bardzo często zaniedbywany element, który jeśli zapomniany w dłuższym okresie czasu prowadzi do stwierdzeń, że ABM jest nieprzydatne, ponieważ koszt jego utrzymania przewyższa korzyści, a informacje z niego uzyskiwane są bardzo ograniczone lub niedostępne. W dużej firmie szczególnie istotne będzie zastosowania odpowiednich narzędzi informatycznych w celu uzyskania kryterium efektywności takiego systemu;
  • Dostępność informacji ABM dla kierowników średniego szczebla, aby mogli na jej podstawie podejmować decyzje operacyjne;
  • Dostępność informacji ABM dla Zarządu, aby mógł na jej podstawie podejmować decyzje strategiczne.
Integracja ABM z systemem zarządzania, a to oznacza wprowadzenie informacji z ABM do:
  • Planowania i budżetowania, najpierw jest to zwykle wykorzystanie wskaźników uzyskanych z modelu do wykorzystania w tradycyjnym budżetowaniu, potem przejście do ABB (ang. Activity Based Budgeting);
  • Systemu motywacyjnego i podziału odpowiedzialności, mówimy o organizacji nakierowanej na procesy, gdzie kierownicy odpowiedzialni są za jakość, koszt, efektywność procesu. Gdzie pracownicy mogą być wynagradzani nie za zrealizowaną sprzedaż, ale za ekonomiczny zysk, który wykazują sprzedane przez nich produkty czy usługi ze szczególnym uwzględnieniem kosztów procesów za które odpowiadają.
 
Warto myślę przekazać tutaj przesłanie znanego autorytetu - Robina Cooper’a, jednego z twórców tej metodologii, zgodnie, z którym poszczególne produkty, usługi czy klienci często wymagają przeprowadzenia skomplikowanego zestawu kosztownych działań. Niejednokrotnie powoduje to, że w danych warunkach ekonomicznych (ustalenia cenowe i wolumenowi) firma nie uzyskuje odpowiedniej kompensaty. Osoby zarządzające powinny zdawać sobie z tego sprawę i podejmować działania służące lepszemu skompensowaniu, min. poprzez zmianę struktury działań, czy też eliminację żądań nieopłacalnych. Zapotrzebowanie na działania ostatecznie wynika z decyzji o poszczególnych produktach, usługach i klientach.
I jeszcze jedna z najważniejszych uwag: wszystkie powyższe kroki nie są możliwe bez dostarczenia odpowiedniej informacji, nadania odpowiednich uprawnień, delegacji odpowiedzialności i wynagradzania zgodnie z osiągniętymi efektami.
 

ROI - Return on Investment

ROI – Return on Investment; zwrot z inwestycji. Jest to analiza ekonomiczna liczona w przedsięwzięciach inwestycyjnych, określana mianem zwrotu z inwestycji.
Jest to jedna z metod analitycznych sięgających do obszarów finansów, statystyki, matematyki i technologii, wykorzystywany w celu ograniczenia ryzyka towarzyszącego decyzji inwestycyjnej.

Ogólnie można powiedzieć, że ROI wyrażamy wzorem:


Często stosowanym wzorem ogólnym jest także:
W praktyce jednak obliczenie ROI nie jest tak proste, gdyż wymaga wielowymiarowego zagłębienia się w wiele innych składników:
  • Produktywność;
  • Usługi;
  • TCO;
  • Klienci;
  • Zasoby;
  • EVI;
  • Analiza efektów ekonomicznych;
  • Analiza scenariuszy.

TCO - redukcja, czy wzrost wydatków

W czasach "niepewnego jutra" właściciele i zarządy organizacji często sięgają po narzędzia TCO, sądząc, że przeprowadzenie audytu kosztowego, znalezienie "luk" i wdrożenie rekomendacji wystarczy, by poprawić ekonomiczne wyniki przedsiębiorstwa.
Najczęstszym działaniem jest ograniczenie użytkownikom dostępu do sieci korporacyjnej lub Internetu, minimalizowanie standardowego, instalowanego na stacjach oprogramowania, ograniczanie liczby szkoleń (przede wszystkim zewnętrznych), itd.
Krótkoterminowym efektem jest poprawa wskaźników kosztowych, jednakże w perspektywie długoterminowej, szczególnie w przypadku informatyki, prowadzi to do braku rozwoju oraz do ograniczenia efektywności i skuteczności organizacji.
De facto, w przypadku informatyki (bazującej na rozwoju technologicznym) oznacza to zacofanie, które po pierwsze trudno będzie nadrobić w przyszłości, a po drugie (co istotniejsze) będzie wymagało znacznie wyższych nakładów finansowych i niefinansowych.
Z tego powodu ważne jest właściwe podejście do projektu, z dogłębną analizą nie tylko struktury kosztów, ale również posiadanych rozwiązań i planów organizacji. W tym wypadku szybkie działanie nie jest równoznaczne z działaniem efektywnym dla organizacji.
Równie ważne jest spojrzenie na stronę zysków, warto odpowiedzieć sobie na pytanie co organizacja może zyskać, zwiększając wydatki na informatykę?
Oczywiście brzmi to przewrotnie, bo w jaki sposób można oszczędzać zwiększając wydatki? A jednak jest to jedna z dróg, które należy rozważyć.

IRR - Internal Rate of Return

IRR - Internal Rate of Return; wewnętrzna stopa zwrotu.
IRR to miara zyskowności przedsięwzięcia będąca stopą dyskontową zrównującą zaktualizowaną wartość przyszłych dochodów pieniężnych z wartością kapitału włożonego w przedsięwzięcie.
Wyznaczając IRR zakłada się, że wpływy pieniężne są reinwestowane przy oprocentowaniu równym stopie zwrotu. Mówiąc inaczej wewnętrzna stopa zwrotu jest taką wartością stopy dyskontowej, przy której bieżąca wartość wpływów jest równa bieżącej wartości wydatków. Oznacza to, że przy stopie zwrotu równej wewnętrznej stopie zwrotu wartość zaktualizowana netto jest równa zero.
Wyznaczenie wewnętrznej stopy zwrotu polega więc na znalezieniu rozwiązania dla:

NCFt – przepływy pieniężne netto w roku t;

Niestety analityczne rozwiązanie tego równania jest bardzo skomplikowane, więc najczęściej IRR wyznaczana jest metodą kolejnych przybliżeń.
Metoda ta sprowadza się do obliczania wartości zaktualizowanej netto dla różnych poziomów stopy dyskontowej. Istota tej metody polega na znalezieniu takich dwóch wartości r1 i r2 (r1 < r2) stopy dyskontowej, dla których wartość NPV obliczona na podstawie stopy r1 jest dodatnia i bliska zeru oraz wartość NPV obliczona na podstawie stopy dyskontowej r2 jest ujemna i bliska zeru.
Szacowanie następuje na podstawie wzoru interpolacyjnego:

NPV+ – dodatnia wartość NPV obliczona na podstawie stopy dyskontowej r1;
NPV - – ujemna wartość NPV obliczona na podstawie stopy dyskontowej r2.

Ocena efektywności informatyki

Badanie efektywności za pomocą rachunku ekonomicznego
 
Do określenia efektywności informatyki za pomocą rachunku ekonomicznego potrzebne są dwie wielkości:
  • sumaryczna korzyść z posiadania systemów informatycznych,
  • suma kosztów, poniesionych na informatykę.
Posiadanie obu wyżej wymienionych wielkości pozwala prowadzić analizę efektywności w sposób zbliżony do analizy finansowej. Efektywność całkowita wykorzystania informatyki wynosi wtedy:
 
gdzie Ei oznacza efektywność wykorzystania informatyki w i-tym obszarze:
 
 
Ui - całkowita korzyść z wykorzystania informatyki w i-tym obszarze;
Ki - całkowity koszt pozyskania i utrzymania informatyki w i-tym obszarze.
 
W praktyce całkowitą korzyść i całkowity koszt zastępuje się zmianami w przychodach i kosztach wybranego obszaru, zmianami wywołanymi zastosowaniem systemu informatycznego. Ma to miejsce w szczególności w sytuacji, kiedy dokonywana jest ocena kilku alternatywnych systemów informatycznych. Interesuje nas wtedy, jaki wpływ na przedsiębiorstwo (lub jego fragment) miałoby wdrożenie poszczególnych systemów. Wzór na efektywność przyjmuje wtedy postać:
 
 
U - przyrost efektu użytkowego, wywołanego zastosowaniem w określonym obszarze systemu informatycznego (na przykład: przyrost zysku, obniżka pracochłonności itp.);K - wzrost nakładów, aby system informatyczny przyniósł spodziewane efekty.
 
Badanie opłacalności za pomocą Analizy Rachunku Sald
Metoda badania opłacalności za pomocą Analizy Rachunku Sald została opracowana przez prof. Jerzego Kisielnickiego. Analiza Rachunkiem Sald jest metodą rachunku ekonomicznego opartą na syntetycznym okresie zwrotu nakładów inwestycyjnych oraz kosztów projektowania, wdrażania oraz eksploatowania obiektowego systemu informatycznego.
Analiza Rachunkiem Sald ma na celu odpowiedź na następujące pytania:
  • Jakie sumaryczne koszty zostaną poniesione na projektowanie, wdrożenie, a następnie eksploatację systemu?
  • Jakich efektów można spodziewać się w wyniku eksploatacji systemu?
  • Kiedy nastąpi zwrot poniesionych kosztów?
Praktycznie Analizę Rachunku Sald prowadzi się, zestawiając skumulowane koszty inwestycji w system informatyczny z efektami, jakie pociąga za sobą ten system w poszczególnych okresach. Poszukuje się momentu tx, od którego suma efektów zaczyna przewyższać sumę kosztów.
 
 
Czas tx, po upływie którego całkowite efekty przewyższają całkowite koszty, jest okresem zwrotu nakładów.
 
Koszty i efekty, obliczane dla poszczególnych okresów, są dyskontowane stopą procentową r. Wzór na zdyskontowane saldo dla całego rozpatrywanego okresu wygląda następująco:
 
  
Dodatkowo przy Analizie Rachunku Sald można obliczyć średni ważony okres zwrotu kosztów:
 
  
gdzie:
Tz - średni ważony okres zwrotu kosztów;u - okres, w którym występuje saldo ujemne;Si - suma sald ujemnych;Ki - suma całkowitych kosztów;poniesionych na system w i-okresach.Miernik ten mówi nam o średnim zamrożeniu jednej złotówki.
 
Model Analizy Rachunku Sald - MARS wersja I
Model MARS I został opracowany przez prof. Witolda Chmielarza. Opiera się on na założeniach metody ARS, opisanej w języku dynamiki systemów J. Forrestera. Podstawowym elementem metody jest model, który pozwala na zbadanie oddziaływania poszczególnych elementów rachunku ekonomicznego na współczynnik efektywności.
 
Podstawowymi elementami rachunku są:
Koszty całkowite, na które składają się:
  • nakłady inwestycyjne - sumy nominalnych nakładów inwestycyjnych i nakładów na tworzenie środków obrotowych;
  • koszty bieżące - sumy kosztów osobowych na analizę, projektowanie, programowanie systemu oraz koszty eksploatacyjne.  
Koszty całkowite pomniejsza się o:
  • amortyzację (na odtworzenie środków trwałych, umorzenie nakładów niematerialnych i prawnych oraz ewentualnych nakładów na postęp techniczny;
  • spłatę odsetek od kredytów inwestycyjnych i nakładów poniesionych na tworzenie środków obrotowych zwiększonych o narzut na fundusz płac o ustalony procent.
Efekty, czyli przewidywane korzyści gospodarcze z zastosowania zautomatyzowanego systemu zarządzania, między innymi:
  • wzrost produkcji;
  • zmniejszenie kosztów;
  • skrócenie cykli produkcyjnych;
  • szybsza i dokładniejsza informacja do celów zarządzania.
Stopa procentowa r, którą corocznie oprocentowana jest różnica kosztów całkowitych i efektów.
 
Dla analizy warunków opłacalności zastosowania systemów informatycznych (w oryginale zautomatyzowanych systemów zarządzania) należy zbudować model strukturalny, dotyczący wybranych elementów przedsiębiorstwa. Samo przedsiębiorstwo rozpatruje się przy tym jako układ względnie odosobniony, powiązany z otoczeniem systemem wejść i wyjść.
W samym modelu istotne są dwie kategorie elementów: poziomy i strumienie, przy czym poziom należy rozumieć jako wyróżniony na daną chwilę stan strumienia. W modelu przedsiębiorstwa wyróżnia się następujące poziomy:
  • ZP - zysk przedsiębiorstwa;
  • SF - środki finansowe;
  • KC - koszty całkowite;
  • EF – efekty.
Na strumienie składają się:
  • SDP - strumień dochodu przedsiębiorstwa;
  • SKP - strumień kosztów początkowych;
  • SIN - strumień nakładów inwestycyjnych;
  • SKB - strumień kosztów bieżących;
  • SKC - strumień kosztów całkowitych;
  • SEP - strumień efektów początkowych;
  • SEN - strumień efektów niewymiernych;
  • SZK - strumień efektów z podsystemu kadry;
  • SMA - strumień efektów z podsystemu materiały;
  • SEZ - strumień efektów z podsystemu produkcja;
  • SZB - strumień efektów z podsystemu zbyt.
Dodatkowo wprowadza się następujące parametry:
A - współczynnik dyskontujący = (1 R), gdzie R - stopa procentowa;
T – czas;
KP - wielkość planowanych kosztów;
EP - wielkość planowanych efektów.
 
Analizę rozpoczyna się od poziomu SF (środków finansowych). Z poziomu tego wypływają strumienie SIN (nakładów inwestycyjnych) i SKB (kosztów bieżących). SIN i SKB tworzą SKC (strumień kosztów całkowitych). Strumień SKC wpływa na poziom kosztów całkowitych (KC). Następnie wysokość strumienia jest korygowana parametrem KP (koszty planowane), narzucającym z góry ograniczenia na wysokość kosztów. Następnie strumień ten opuszcza poziom KC.
Efekty z zastosowania systemu informatycznego są uzyskiwane z usprawnienia różnych sfer działalności przedsiębiorstwa. Nie stosuje się tutaj jednolitej funkcji łączącej, lecz bada się oddzielnie każdy ze strumieni, wpływających na efekt sumaryczny. Strumienie efektów (EF) łączą się w jeden strumień SEP i są badane jako poziom. Wysokość poziomu EF zależy od parametru Efekty Planowane (EP) porównywalnego z EF.
Różnice między wielkościami planowanymi i rzeczywistymi (EF i EP oraz KC i KP) są przedmiotem dalszych badań.
Efekty, rozpatrywane na poziomie EF, przechodzą następnie w strumień łączący się z innymi strumieniami efektów (na które system nie ma wpływu lub wpływ ten jest nieistotny) jako strumień dochodu przedsiębiorstwa (SDP). Strumień SPD zasila poziom zysku przedsiębiorstwa (ZP) i w tym celu musi być pomniejszony o wielkość poniesionych kosztów całkowitych i następnie zdyskontowany parametrem A = (1 R)T.
W oryginalnym modelu MARS I, opracowanym przez prof. Witolda Chmielarza, rozpatrywane są dodatkowo dwa czynniki:
  • zakłócenia losowe
  • postęp naukowo-techniczny, które mogą występować zarówno wewnątrz, jak i poza układem. Czynniki te wpływają na kształtowanie się poziomu kosztów całkowitych oraz efektów.
Czynniki te są jednak często pomijane, dlatego nie będą tutaj dokładnie opisywane. 
 
Model MARS II
Model MARS II jest zbliżony do modelu MARS I. Jest on oparty również na analizie rachunkiem sald. Od MARS I różni się przede wszystkim odmiennym ujęciem węzłów decyzyjnych oraz dużą złożonością.
Model MARS II został wykorzystany do analizy opłacalności zautomatyzowanego systemu zarządzania w Fabryce Wyrobów Precyzyjnych im. Gen. Świerczewskiego w Warszawie. Badany zautomatyzowany system zarządzania składał się z następujących podsystemów:
  • gospodarki materiałowej i narzędziowej;
  • planowania produkcji;
  • kadr i płac;
  • rachunku kosztów normatywnych;
  • gospodarki środkami trwałymi;
  • obliczeń inżynierskich.
Na strumień kosztów składały się następujące pozycje:
Nakłady inwestycyjne:
  • projektowanie organizacji ośrodka komputerowego i adaptacji budynków;
  • roboty budowlano-montażowe i instalatorskie;
  • klimatyzacja;
  • przygotowanie powierzchni użytkowej ośrodka;
  • zakup sprzętu;
  • przeprowadzenie szkoleń.
Koszty jednorazowe:
  • koszt prac przygotowawczych;
  • koszt prac wdrożeniowych;
  • koszt oprogramowania.
Koszty eksploatacyjne:
  • materiały eksploatacyjne;
  • konserwacja sprzętu komputerowego;
  • płace;
  • ubezpieczenie pracowników;
  • zużycie przedmiotów nietrwałych;
  • energia.
Koszty eksploatacyjne były pomniejszane o amortyzację. Poziom kosztów był analizowany w układzie całego systemu i podsystemów (zapis KPiS, gdzie i jest identyfikatorem kolejnych podsystemów, np. KP2S dla 2-giego podsystemu).
 
Dla określenia efektów ustalono siedem zbiorczych mierników:
  • oszczędności na bezpośrednich kosztach produkcji;
  • oszczędności na kosztach stałych (ogólnych) z tytułu wzrostu produkcji;
  • przyrost akumulacji z tytułu wzrostu produkcji;
  • zmniejszenie płaconych odsetek bankowych na skutek zmniejszenia zaangażowanych środków trwałych i obrotowych;
  • zmniejszenie wydatków nieplanowanych (interwencyjnych, kar, itp.);
  • zmniejszenie zatrudnienia w poszczególnych agendach użytkowników podsystemu;
  • podniesienie stopnia organizacji (efekty jakościowe).
Zastosowano następującą notację poziomów:
E(k)P(i)S - poziom skumulowanego efektu rodzaju k (gdzie k = 1, ... ,7) powstałego w wyniku eksploatacji i-tego podsystemu (i = 1, ... ,6);
EP(i)S - poziom skumulowanych efektów łącznych, powstałych w wyniku eksploatacji i-tego podsystemu;
E(k)S - poziom skumulowanego efektu rodzaju k, powstałego w wyniku eksploatacji całego systemu;
ES - poziom skumulowanych efektów łącznych, powstałych w wyniku eksploatacji całego systemu informatycznego.
 
Poziomy zostały powiązane ze strumieniami środków pieniężnych, których wielkości zależą od następujących parametrów modelu:
WPRK - planowany rozkład sumarycznych kosztów w czasie;
WPRKIN - planowany rozdział kosztów eksploatacji (bieżących) w czasie;
R - wysokość stopy dyskontowej
oraz od wielkości pomocniczych:
SALDOP(i) - oprocentowane saldo liczone dla podsystemu i-tego (i = 1, ... ,6);
SALDO - oprocentowane saldo liczone dla całego zautomatyzowanego systemu zarządzania;
SALDOS - oprocentowane i skumulowane saldo liczone dla całego zautomatyzowanego systemu zarządzania;
PSALDO - planowane saldo oprocentowane dla całego zautomatyzowanego systemu zarządzania;
PSALDS - planowane saldo oprocentowane i skumulowane liczone dla całego systemu;
SRZ(i) - stopień realizacji zadań planowanych, osiągnięty w danym roku przez podsystem i (gdzie i = 1, ... ,6);
SUMAOD - stopień realizacji zadań, osiągnięty przez cały system;
ZL(i) - zmienna losowa uwzględniająca wpływ czynników stochastycznych na stopień realizacji zadań w podsystemie i;
ZL - zmienna losowa uwzględniająca wpływ czynników stochastycznych na wielkość kosztów rzeczywistych ponoszonych przez cały system;
WIP(i) - wpływ innych podsystemów zautomatyzowanego systemu zarządzania na podsystem i (i - 1, ... ,6);
WP - wektor proporcji nakładów ponoszonych na poszczególne podsystemy.
 
Różnice między wielkościami rzeczywistymi i planowanymi zostały uwzględnione w modelu przez wprowadzenie zmiennych losowych. Wpływ zmiennych losowych został uwzględniony przy rozwiązywaniu następujących zagadnień:
  • ustalenie wartości rocznych kosztów rzeczywistych;
  • wybór stopnia realizacji zadań w każdym podsystemie.
Zmienna losowa, przekształcająca koszty planowane (PK) w rzeczywiste (KOSZT) uwzględnia wszystkie te czynniki, które nie występują w modelu jako zmienne (m.in. te o charakterze organizacyjnym i psychologicznym). W modelu MARS II przyjęto dla uproszczenia, dotyczące zmiennej losowej o rozkładzie normalnym i odchylenia standardowego.
 
Drugim elementem modelu matematycznego jest tablica transformacji, która przedstawia zależność efektów od poniesionych kosztów oraz zrealizowanych zadań dla każdego podsystemu. Zależność tę można umownie zapisać w następujący sposób: 
 
 
gdzie:
Kti - koszty podsystemu i w okresie t;
Zti - stopień realizacji zadań w podsystemie i w okresie t;
Zt-1 - stopień realizacji zadań w pozostałych podsystemach w okresie t-1;
l – opóźnienie.
 
Ostatnim elementem modelu jest funkcja decyzji, dotycząca planowanych kosztów rocznych całego systemu. Porównując oprocentowane saldo skumulowane bieżące (SALDOS) z oprocentowanym saldem skumulowanym planowanym (PSALDS) analizator może interweniować w celu przeprowadzenia korekty kosztów na rok następny.

EVA - Economic Value Added

EVA - Economic Value Added; ekonomiczna wartość dodana.

Współczynnik ten podaje, ile naprawdę zostanie inwestorom zysku po odjęciu pełnego kosztu.
Z punktu widzenia księgowego EVA odnosi się do zysku rezydualnego (różnica pomiędzy zyskiem rezydualnym a klasycznym księgowym polega na tym, że obliczając zysk klasyczny uwzględniamy tylko koszt kapitału obcego, tymczasem zysk rezydualny jest wynikiem pozostałym po pokryciu zarówno kosztu kapitału obcego jak i kosztu kapitału własnego). Stąd ekonomiczną wartość dodaną możemy wyrazić wzorem:

ATOP – zysk operacyjny po opodatkowaniu.
WACC – średni ważony koszt kapitału, którego określenie polega na tym, że szacuje się najpierw koszt kapitałów pochodzących z różnych źródeł finansowania.

Następnie przeprowadza się kalkulację udziału każdego z nich w strukturze kapitału danego przedsiębiorstwa i wreszcie oblicza się średnią ważoną.

Można powiedzieć, że WACC to:

ki – koszt kapitału ze źródła i;
wi – udział kapitału ze źródła i w strukturze kapitału;
IC – zainwestowany kapitał.