Archiwum | Maj, 2018

dps logo

Tags: , , ,

DPS Software nowym partnerem Sage w Polsce

Dodany 30 maja 2018 przez admin

Firma DPS Software, jeden z czołowych dostawców usług doradczych i rozwiązań informatycznych dla polskiego przemysłu, została partnerem firmy Sage w Polsce na rynku rozwiązań klasy ERP dla małych i średnich przedsiębiorstw. Rozszerzenie portfolio DPS Software o systemy do zarządzania przedsiębiorstwem produkcyjnym umożliwi polskim firmom zakup rozwiązań i wsparcie dla wszystkich kluczowych procesów w organizacji u jednego dostawcy.

DPS Software działa na niemieckim, austriackim, szwajcarskim oraz polskim rynku rozwiązań CAD/CAM/CAE/PDM/PLM/ERP. Współpracuje z Sage w zakresie produktów ERP oraz z Dassault Systemes w obszarze produktów SOLIDWORKS. Grupa kapitałowa DPS Software zajmuje pozycję światowego lidera w sprzedaży SolidCAM. Jest największym dostawcą rozwiązań SOLIDWORKS w Europie i czwartym co do wielkości na świecie. W Niemczech DPS Software jest największym dystrybutorem produktów Sage w obszarze systemów ERP, HR, CRM.

Sage jest liderem na rynku zintegrowanych systemów finansowo-księgowych i kadrowo-płacowych, a także jedynym z czołowym dostawców oprogramowania do zarządzania przedsiębiorstwem na rynku dostawców rozwiązań dla małych i średnich firm na świecie.

Współpraca z DPS Software jest wyjściem naprzeciw oczekiwaniom naszych klientów, którzy poszukują kompleksowych rozwiązań do zarządzania przedsiębiorstwem czy zarządzania produkcją. U jednego dostawcy mogą uzyskać wsparcie dla wszystkich kluczowych procesów w organizacji. Razem wprowadzamy bowiem do oferty DPS Software moduł zarządzania produkcją uzupełniony o system finansowo-księgowy, analityczny (Business Intelligence), kadrowo-płacowy oraz handlowo-magazynowy. Sage oraz DPS Software współpracują już na bardzo wymagającym rynku niemieckim. Liczymy, że uda się przełożyć te wspólne doświadczenia na polski grunt, oferując klientom nową jakość – mówi Piotr Ciski, dyrektor zarządzający Sage w Polsce.

W ofercie DPS Software z portfolio Sage znajdą się takie produkty jak Sage Symfonia Start, program dla mikro przedsiębiorstw rozliczających się uproszczoną księgowością, Sage Symfonia 2.0 oferujący rozwiązania dla małych i średnich przedsiębiorstw, w tym z zakresu księgowości, kadr oraz handlu oraz Sage Symfonia ERP – program do zarządzania przedsiębiorstwem umożliwiający pełną integrację danych z wielu obszarów działalności.

– Od ponad 20 lat wspieramy polskie przedsiębiorstwa w zakresie oprogramowania do projektowania, wytwarzania, analiz inżynierskich oraz zarządzania dokumentacją. Nasi klienci zgłaszali potrzebę otrzymania kompleksowych rozwiązań od jednego dostawcy  – od projektowania, poprzez produkcję, finanse, logistykę, kadry, sprzedaż, po analitykę biznesową – mówi Wojciech Obst, dyrektor techniczny DPS Software – Chcąc sprostać tym oczekiwaniom, zdecydowaliśmy się na współpracę z firmą Sage na polskim rynku. W biznesie najważniejsze jest zaufanie, a nasze wspólne działania na niemieckim rynku gwarantują, że jesteśmy w stanie zaoferować naszym obecnym i przyszłym klientom najwyższą jakość.   

Inauguracją współpracy była debata zorganizowana w połowie maja i poświęcona wykorzystaniu inteligentnych rozwiązań programowych w polskich przedsiębiorstwach „Inteligentne przedsiębiorstwa 2020 – polskie doświadczenia a światowe osiągnięcia. Gdzie jesteśmy?”. W spotkaniu wzięli udział obok Wojciecha Obsta, dyrektora technicznego DPS Software, oraz Piotra Ciskiego, dyrektora zarządzającego Sage w Polsce, dr Aleksandra Przegalińska z MIT Center for Collective Intelligence, ekspertka w zakresie rozwoju nowych technologii, w tym m.in. sztucznej inteligencji, a także Jakub Bobusia, prezes zarządu EBA, firmy produkcyjnej specjalizującej się w obróbce metalu i wykorzystującej w produkcji nowoczesne technologie informatyczne.

Eksperci dyskutowali o tym, jak polski biznes radzi sobie z nowymi technologiami? Co już mamy, a co nadal pozostaje poza zasięgiem? Jak wyglądają najnowsze światowe osiągnięcia w zakresie sztucznej inteligencji? Co już niedługo może stać się standardem? Jak przygotować biznes i produkcję na innowacje? Czy z wyprzedzeniem można zaplanować integrację systemów informatycznych ze sztuczną inteligencją i internetem rzeczy?

Źródło: DPS Software

Komentarzy (0)

infakt logo

Tags: , , ,

RODO w blogosferze – o czym trzeba pamiętać?

Dodany 30 maja 2018 przez admin

Prowadzisz bloga i zastanawiasz się, w jakim zakresie przepisy RODO dotyczą Twojej działalności? Eksperci inFakt wyjaśniają, jakie obowiązki muszą spełnić blogerzy i którzy spośród nich są w myśl przepisów rozporządzenia administratorami danych osobowych.

To, w jakim zakresie RODO będzie obowiązywało blogera, zależy od skali jego działalności. Inne wymogi są postawione przed osobą, która jedynie publikuje wpisy na platformie blogowej, a inne przed osobą, która wysyła newslettery do czytelników czy też zbiera kontakty od potencjalnych klientów. W tym ostatnim przypadku bloger przetwarza dane osobowe i będą go obowiązywały przepisy dotyczące administratorów tych danych.

Blog na zewnętrznej platformie

Kiedy bloger ogranicza się do publikowania postów na jednej z dedykowanych do tego platform, RODO może nie mieć zastosowania. Dane osobowe są bowiem wówczas przetwarzane przez właściciela platformy blogowej – jako przykłady można podać np. Disqus.com lub Blogspot.com. Czytelnik, który czyta wpisy blogera w jednym z takich miejsc, wyraża zgodę na przetwarzanie swoich danych osobowych przez właściciela platformy.

Nie zaszkodzi oczywiście ostrożność – bloger powinien upewnić się, czy właściciel platformy przestrzega przepisów RODO – najlepiej sprawdzić regulamin i / lub dopytać przedstawiciela platformy.

Warto pamiętać, że w określonych przypadkach także sam bloger może podlegać przepisom RODO. – Jeżeli na blogu jest możliwość zamieszczania komentarzy i bloger może je moderować, to w mojej opinii dochodzi do przetwarzania danych osobowych – zwraca uwagę Magda Sławińska-Rzemek, ekspert w firmie inFakt, oferującej nowoczesne rozwiązania księgowe.

Blog na własnej stronie

Blogerzy, którzy publikują na własnej stronie internetowej, mają szerszy zakres obowiązków związanych z RODO. Jeśli dodatkowo wysyłają np. newsletter do swoich czytelników, niesie to kolejne konsekwencje.

Jeżeli zbieramy dane subskrybentów, aby wysyłać newslettery, to należy przyjąć, że przetwarzamy dane osobowe. Wobec tego należy pamiętać o wywiązaniu się ze wszystkich wymogów nakładanych przez RODO – mówi Magda Sławińska-Rzemek

Jakie są obowiązki blogera?

Bloger, który przetwarza dane osobowe i w myśl RODO staje się ich administratorem, musi pamiętać o kilku obowiązkach, wśród których są:

– przygotowanie rejestru czynności przetwarzania danych osobowych – jest to tabela, w której ujęte są podstawowe wiadomości takie jak dane blogera; nazwa czynności, które wymagają przetwarzania danych; wskazanie celu ich przetwarzania oraz podstawy prawnej; określenie kategorii osób, których dane będą przetwarzane oraz termin usunięcia danych;

– zawarcie umowy przetwarzania danych – np. w sytuacji, kiedy bloger przekazuje dane czytelników lub subskrybentów firmie świadczącej usługi hostingowe;

– wdrożenie środków ochrony danych – czyli odpowiednie zabezpieczenie i zaszyfrowanie urządzeń, na których są przetwarzane dane, a także zainstalowanie odpowiedniego oprogramowania ochronnego;

– opublikowanie odpowiednich klauzul o przetwarzaniu danych osobowych – muszą być zawarte w miejscu zbierania danych.

Natomiast przygotowanie polityki prywatności nie jest obowiązkowe. Jeśli jednak bloger zechce ją opracować, to powinna ona zawierać m.in. informacje o plikach cookies czy o polityce bezpieczeństwa.

Należy tutaj zaznaczyć, że RODO dopiero weszło w życie i brak jest jeszcze jakichkolwiek opinii ze strony instytucji stosujących te przepisy – zwraca uwagę Magda Sławińska-Rzemek. – W doktrynie prawa pojawia się wiele, czasem sprzecznych ze sobą, poglądów i interpretacji. W Polsce nie zostały jeszcze uchwalone wszystkie akty prawne związane z RODO, a ich wejście w życie również będzie miało znaczący wpływ na sposób interpretacji tego rozporządzenia – podsumowuje ekspertka.

Źródło: inFakt

Komentarzy (0)

passus logo

Tags: , ,

Monitorowanie doświadczeń użytkownika – nowy cel szefów IT

Dodany 29 maja 2018 przez admin

Monitoring wydajności aplikacji i sieci to rynek, który zdaniem firmy Gartner w 2020 roku osiągnie wartość 5.6 miliardów dolarów, rosnąc w tempie ok. 10 proc. na rok. Wzrosty napędza przede wszystkim cyfrowa transformacja i związana z nią potrzeba monitorowania doświadczeń użytkowników, w tym przede wszystkim tych korzystających z aplikacji biznesowych. Zdaniem Gartnera, to właśnie te funkcje są obecnie najważniejszym powodem dla szefów IT, aby inwestować w rozwiązania APM (Application Performance Monitoring).

Monitorowanie wydajności działania aplikacji to bardzo ważny obszar ze zrozumiałych powodów: jeśli aplikacja działa wolno lub co chwilę się wiesza, nie ma znaczenia jak bardzo przyjazny jest jej interfejs, bo i tak nikt nie będzie chciał z niej korzystać. Jest to tym bardziej istotne, że współcześnie użytkownicy mają bardzo duży wybór różnych podobnych do siebie aplikacji internetowych i łatwo podejmują decyzję o ich zmianie, jeśli tylko spotkają się z jakimiś trudnościami związanymi z jej użytkowaniem.

Tego typu zachowanie to żadna nowość we współczesnym świecie, co potwierdzają np. badania firmy Forrester. Wedle nich, 65 proc. konsumentów ma dużą lub bardzo dużą skłonność do karania lub nagradzania dostawców usług lub producentów w oparciu o nawet pojedyncze doświadczenie dotyczące danej usługi lub produktu. Nie dotyczy to przy tym tylko ludzi młodych, ale także i starszych.

„Potrzeba zapewniania wysokiej wydajności aplikacji jest jeszcze ważniejsza w firmach, bo wpływa na wydajność pracy. Jeśli aplikacja pracuje bez żadnych zakłóceń, to również i pracownik może szybko wykonywać swoje zadania. Jeśli jednak pojawiają się problemy, to ma to bezpośredni wpływ na jego wydajność. Sięga on – wedle badań firmy ZK Research – aż 14 proc. rocznie” – mówi Grzegorz Mańturzyk, Specjalista ds. Monitoringu Wydajności w firmie Passus SA.

Jak dodaje przedstawiciel Passus, firmy wydają miliardy na nowe inicjatywy IT w celu zwiększenia przychodów, ale gdyby tylko mogły sprawić, że aplikacje, które już mają, będą działały lepiej, doprowadziłoby to do dwucyfrowej poprawy wydajności ich pracowników.

Sposoby monitorowania wydajności aplikacji

Aplikację może spowalniać serwer, oprogramowanie zainstalowane na tym serwerze, sieć lub różnego rodzaju problemy na urządzeniu, z którego korzysta użytkownika. Do niedawna monitoring wydajności aplikacji sprowadzał się głównie do mierzenia parametrów pracy po stronie serwera czy sieci.

„Monitoring wydajności po stronie serwerowej to najbardziej podstawowy sposób zapewnienia ciągłości działania aplikacji. Specjalne oprogramowanie może monitorować w trybie ciągłym zarówno podstawowe parametry serwera, jak obciążenie procesora, pamięci czy dysków, jak i kod aplikacji, dostarczając informacji o tym, jakie klasy i metody wykonują się najdłużej, jakie są zgłaszane wyjątki oraz awarie” – wyjaśnia Grzegorz Mańturzyk.

Drugą metodą jest monitorowanie ruchu generowanego przez aplikację, co odbywa się przez skierowanie kopii tego ruchu do specjalnego programu monitorującego. To rozwiązania umożliwia przede wszystkim dostarczenie informacji o wpływie sieci i jej parametrów transmisyjnych, jak np. pasmo czy opóźnienia pakietów, na wydajność aplikacji.

Metodą obecnie zyskującą największą popularność jest instalowanie agentów do monitoringu wydajności bezpośrednio na urządzeniach końcowych użytkowników (komputerach, tabletach, smartfonach). Wedle badań firmy Gartner, 46 proc. CIO uważa tę funkcję za najważniejszą w systemach APM. Żadna inna funkcja dostępna w rozwiązaniach do monitoringu wydajności nie uzyskała w tych badaniach większej liczby wskazań.

Nowa generacja rozwiązań – zintegrowany monitoring w jednym systemie

Agenci instalowani na urządzeniach użytkowników to nic innego jak specjalny program, który łączy się z tzw. kolektorem danych przez sieć, który może je przechować przez nawet kilka lat. Dane są następnie przetwarzane przy pomocy zaawansowanych programów, z wykorzystaniem mechanizmów sztucznej inteligencji i narzędzi Business Intelligence oraz Big Data.

„W ten sposób jesteśmy w stanie uzyskać informacje, których nie dostarczały dwie poprzednie metody. Czyli np. jakie aplikacje są zainstalowane na danym urządzeniu, w jakim stopniu obciążają one zasoby urządzenia i czy ulegają awariom, ile czasu użytkownik musi czekać aż się aplikacja odwiesi, czy zdarzają się awarie całkowicie blokujące aplikację” – mówi Grzegorz Mańturzyk.

Przedstawiciel Passus, jako przekład takiego rozwiązania wskazuje system Riverbed SteelCentral Aternity, które zostało stworzone po przejęciu firmy Aternity, specjalizującej się rozwijaniu rozwiązań do monitoringu doświadczeń użytkowników, przez Riverbed, globalnego potentata na rynku monitoringu aplikacji. W wyniku tego przejęcia Riverbed dodał funkcje w zakresie monitoringu na urządzeniach użytkowników do swojej platformy, która wcześniej umożliwiała monitoring przede wszystkim po stronie serwerowej i sieci.

„Powstał w ten sposób system, który umożliwia zbieranie i analizę w jednym systemie wszystkich danych na temat wydajności aplikacji – z serwerów, sieci oraz urządzeń użytkowników. Zdecydowanie ułatwia to monitorowanie wydajności i szybkie reagowanie na wykryte nieprawidłowości” – mówi Grzegorz Mańturzyk.

Możliwości tego rozwiązania można zobaczyć oglądając specjalne webinarium na jego temat, które jest dostępne tutaj.

Zintegrowanie wszystkich metod monitorowania wydajności aplikacji w jednym systemie to bez dwóch zdań przełom na rynku APM. Tego typu rozwiązania w znaczący sposób mogą pomóc firmom w poprawie doświadczeń użytkowników – ułatwiając szybkie zidentyfikowanie problemu, a następnie określenie jego przyczyn.

Nic dziwnego, że na tego typu systemy jest coraz większe zapotrzebowanie. Wedle badań Riverbed z 2018 roku, w samej tylko branży handlowej, aż 48 proc. firm planuje w najbliższym czasie zakup urządzeń do lepszego monitoringu doświadczeń użytkowników. Z kolei badania firmy SpigIT z 2016 roku pokazują, że aż 75 proc. firm na całym świecie, które inwestuje we wprowadzania innowacji, stawia sobie za cel przede wszystkim poprawę doświadczeń użytkowników.

Źródło: Passus SA

Komentarzy (0)

it kontrakt logo

Tags: , ,

IT Kontrakt: Zapotrzebowanie na bioinformatyków będzie rosnąć

Dodany 29 maja 2018 przez admin

  • Według raportu Deloitte, w latach 2018-2021, wydatki na ochronę zdrowia na świecie będą rosły średnio o 4,1 proc. rocznie.
  • Zgodnie z raportem „Bioinformatics Market by Sector, Product & Application Global Forecast to 2021″, wartość rynku usług bioinformatycznych w roku 2021 osiągnie 16.18 mld USD.
  • Dane rynkowe jasno wskazują, że rynek usług bioinformatycznych w Polsce będzie dynamicznie rosnąć.

Polska jest jednym z największych centrów usług technologicznych dla branży farmaceutycznej w Europie. IT Kontrakt jako jedna z nielicznych firm w sektorze usług informatycznych posiada w swoim zespole bioinformatyków. Obecnie zatrudniamy 460 osób, które na przestrzeni ostatnich lat zrealizowały 47 projektów w tej dziedzinie. Nasze zespoły pracują dla światowych gigantów i innowatorów w zakresie nowoczesnej medycyny i farmacji. W Polsce sektor jest jeszcze w fazie rozwoju, ale nie ma wątpliwości, że jego dynamika wzrostu będzie znacząca – mówi Tomasz Pyrak, prezes współzarządzający w IT Kontrakt.

Współczesna medycyna i farmacja staje się coraz bardziej scyfryzowana. Dzięki rozwiązaniom wykorzystującym takie technologie jak: Robotic Process Automation (RPA) czy Artificial Intelligence (AI) dokumentacje medyczne, dotychczas wypełniane przez lekarzy lub farmaceutów, mogą zostać zastąpione inteligentnym systemem informatycznym. Również rozwój zagadnienia nazywanego z ang. Internet of Things (IoT), w którym przedmioty codziennego użytku mogą gromadzić, przetwarzać i wymieniać ze sobą dane, jest już wykorzystywany w medycynie i farmacji. Jest to tzn. Internet of Medical Things (IoMT), w którym urządzenia mierzące parametry życiowe, systemy monitoringu oraz dane uzyskane przez lekarzy mogą w prosty sposób, dzięki podłączeniu do wspólnej sieci, być analizowane w jednym miejscu. Większa ilość informacji oraz możliwość ich szybszego przetwarzania i archiwizowania wpływa na jakość świadczonych usług. Co za tym idzie, zwiększa prawdopodobieństwo wykrycia chorób we wczesnym stadium oraz opracowanie odpowiedniego systemu leczenia.

Jednym z pożądanych, przez firmy farmaceutyczne, specjalistów jest bioinformatyk – czyli programista łączący w sobie zarówno wiedzę na temat systemów kodowania oraz tę z zakresu statystyki, analizy danych, czy podstawową wiedzę dotyczącą biologii molekularnej, genetyki, genomiki i biostatystyki. Biotechnologia należy do dziedzin określanych mianem ang. cutting edge, czyli jest „technologią na granicy wiedzy”. Są to najbardziej zaawansowane i innowacyjne rozwiązania technologiczne oraz informatyczne, które często są dopiero wdrażane lub testowane. Praca przy takich projektach jest jedną z najciekawszych ofert dla programistów, którym zależy na śledzeniu trendów oraz poznawaniu nowych metod i języków programowania.

Bioinformatyka jest stosunkowo młodą dziedziną, dlatego często do projektów bioinformatycznych zatrudniani są programiści z klasycznym, informatycznym wykształceniem. Wiedzę związaną z biologią mogą zdobyć już podczas pracy. Z moich obserwacji wynika, że częściej wdraża się programistę w zagadnienia biologiczne i bioinformatyczne, niż biologa w samo programowanie – mówi Paweł Piątkowski, bioinformatyk w IT Kontrakt.

Praca nad projektami bioinformatycznymi jest najczęściej prowadzona przez interdyscyplinarne zespoły, w których skład oprócz specjalistów IT musi wchodzić co najmniej jedna osoba posiadająca zarówno wiedzę biotechnologiczną, jak i ogólną znajomość zagadnień programistycznych. Najczęściej w zespole znajdują się developerzy, project managerowie oraz bioinformatycy. Osobą kontaktującą się zarówno z zespołem jak i bezpośrednim klientem jest tzn. analityk biznesowy, czyli specjalista odpowiedzialnym za przeniesienie oczekiwań klienta na konkretne problemy programistyczne.
W projektach bioinformatycznych z roku na rok na znaczeniu zyskuje język programowania “R”. Wciąż niewielu programistów może pochwalić się jego znajomością.

– Od dwóch lat realizujemy projekty związane z bioinformatyką, wykorzystujące język ‘R’. Jest to bardzo niszowa specjalizacja, co za tym idzie pozyskanie pracowników z takimi kompetencjami jest dużym wyzwaniem. Aby usprawnić proces, zdecydowaliśmy się budować kompetencje wewnętrznie. Przygotowujemy się do uruchomienia tzw. Akademii Bioinformatyki, dzięki której będziemy w stanie szybko odpowiadać na zapotrzebowanie klientów. Posiadamy już wiele inicjatyw szkoleniowych, a najstarsza z nich ‘Akademia QA’ wyszkoliła blisko 65 pracowników, którzy świetnie radzą sobie z nowoczesnymi projektami. Oferujemy naszym pracownikom możliwość rozwoju, oraz wdrażamy nowe osoby do świata IT. W obszarze bioinformatyki planujemy przeszkalać 10 pracowników na kwartał – mówi Michał Tomasik, Business Unit Director w IT Kontrakt.

Zatrudniani na stanowisko bioinformatyków są m.in. odpowiedzialni za analizę danych z zakresu genomiki oraz pracę przy „programowaniu” nowych leków. Dzięki wirtualnym testom i analizom, ograniczają konieczność zaangażowania laboratorium, co przyspiesza proces powstawania medykamentów. Możliwość przeanalizowania w jednej chwili danych dotyczących wielu substancji pozwala na zweryfikowanie i lepsze dopracowanie składu leku, ale także umożliwia wykrycie niepożądanych interakcji pomiędzy różnymi środkami i w konsekwencji pomaga wyeliminować wiele skutków ubocznych.

Do dalszego, szybkiego rozwój branży medycznej oraz firm farmaceutycznych konieczne jest zaangażowanie coraz większej liczby specjalistów nie tylko z obszaru biologii, farmacji czy biotechnologii, ale także programistów i bioinformatyków. Zapotrzebowanie na wyspecjalizowanych w tym obszarze specjalistów IT będzie rosło.

Źródło: IT Kontrakt

Komentarzy (0)

brainshare logo

Tags:

Od SaaS-a do pariasa. Czy modele subskrypcypcyjne usuną reselling poza rynkowy nawias?

Dodany 29 maja 2018 przez admin

Niskie koszty inwestycyjne, szybkie wdrożenie i wysoka niezawodność – to tylko kilka z niezliczonych zalet systemów opartych na modelu SaaS, które szturmem zdobyły rzesze fanów. Niestety, korzystanie z chmury obliczeniowej nie dla wszystkich równoznaczne jest z przeniesieniem swojego biznesu na wyższy poziom. Z niepokojem patrzą w przyszłość sprzedawcy systemów IT, dla których głównym źródłem dochodów były do tej pory klasyczne, stacjonarne wersje oprogramowań. Czy w zautomatyzowanym świecie „online” znajdzie się jeszcze miejsce dla resellerów?

Oprogramowanie SaaS (ang. Software as a Service) to w dosłownym tłumaczeniu “oprogramowanie jako usługa”, które dostarczane jest użytkownikom zdalnie w płatnym modelu abonamentowym. W przeciwieństwie do tradycyjnych oprogramowań instalowanych na nośnikach, usługa SaaS charakteryzuje się nie tylko o wiele niższym kosztem początkowej inwestycji, ale też wyższym komfortem użytkowania. I choć światowy rynek produktów sprzedawanych w formie czasowych subskrypcji rośnie w błyskawicznym tempie, to resellerzy systemów informatycznych wciąż niechętnie rekomendują rozwiązania SaaS swoim klientom.

Co wpływa na tak nieprzychylny stosunek handlowców do modelu, którego popularność już teraz wyceniana jest na ponad 63 miliardy dolarów (IDC, 2017) i wciąż rośnie? Odpowiedź jest bardzo prosta: panujące w branży IT przekonanie, że SaaS zagraża resellerom i pomniejsza ich zyski ze sprzedaży. Tymczasem rzeczywistość wygląda zupełnie inaczej, a producenci systemów zapewniają, że sprawnie funkcjonujący reselling jest nieoceniony dla rozwoju produktu i wzrostu jego popularności na rynku. Czy redystrybucja modeli abonamentowych może się opłacać?

Less is more – bezpieczny przychód pasywny

„Sprzedając SaaS, zarabiam mniej” – w ten sposób myśli większość resellerów, traktujących rozwiązania abonamentowe co najwyżej jako dodatek do handlowej oferty. Nie ma się co dziwić, wszak dochód ze sprzedaży systemu zainstalowanego na serwerach klienta oscyluje w granicach kilkunastu (a zdarza się, że i kilkudziesięciu) tysięcy złotych. Sęk w tym, że jest to zysk jednorazowy, okupiony nierzadko trudnymi negocjacjami i skomplikowanym procesem wdrożeniowym.

W przypadku modeli SaaS sprzedawcy co prawda nie mogą liczyć na tak skokowe dochody, ale też nie muszą się martwić o to, czy i kiedy przekonają następnego klienta do kosztownej inwestycji. Przychód pasywny to wartość dodana rozwiązań abonamentowych, ponieważ dzięki nim firma generuje stały dochód miesięczny i jest stabilna finansowo. I choć na pierwszy rzut oka może się wydawać, że osiągnięcie kwoty zbliżonej do tej pochodzącej ze sprzedaży oprogramowania stacjonarnego zajmie co najmniej kilka lat, to w rzeczywistości systemy SaaS, ze względu na niską cenę inwestycji, są chętniej wybierane przez przedsiębiorców, a co za tym idzie, gwarantują sprzedawcom szybki i porównywalny zysk.

Dobry reseller jest na wagę złota!

Rozwój nowych technologii sprawił, że biznes chętnie przenosi swoje zasoby ze świata „offline” w bardziej komfortowe w eksploatacji chmury obliczeniowe. Część resellerów niepokoi fakt, że rozwiązania abonamentowe nie wymagają zaawansowanych wdrożeń i są dostępne od ręki, bez konieczności konsultowania się z pośrednikiem. Czy w świecie, w którym od zakupu usług dla firmy dzieli nas zaledwie jeden klik, nadal będzie miejsce dla sieci partnerskich? Oczywiście, że tak!

Producenci systemów informatycznych nigdy nie zrezygnują z sieci partnerskich, ponieważ klienci bardzo cenią sobie rekomendacje wyspecjalizowanych i zaufanych resellerów. Rola partnerów biznesowych jest kluczowa dla rozwoju produktu, ponieważ to oni mają bezpośredni kontakt z użytkownikami, a co za tym idzie, są odpowiedzialni za prawidłową konfigurację oprogramowania czy zaprezentowanie jego zaawansowanych możliwości. Dostawcy systemów wiedzą, jak ważna dla firmy jest sieć handlowa oparta na zaufaniu, dlatego też wspierają swoich partnerów biznesowych w realizacji wspólnego celu. To relacja win-win, w której nikt nikomu nie zagraża – tłumaczy Edyta Wojtas, członek zarządu i analityk biznesowy w BrainSHARE IT, firmie produkującej oprogramowanie SaldeoSMART.

Mimo że klasyczne systemy instalowane na prywatnych serwerach powoli przechodzą do lamusa, wciąż można spotkać redystrybutorów, którzy z dystansem podchodzą do oprogramowań sprzedawanych w formie przystępnych cenowo subskrypcji. Tymczasem zwrócenie się w stronę rozwiązań opartych na modelu SaaS umożliwia resellerom stworzenie atrakcyjnej i różnorodnej oferty, która z pewnością zostanie doceniona przez każdego klienta stawiającego na nowoczesność i prostotę użytkowania. Dlatego też warto przychylniejszym okiem spojrzeć na zdobycze nowych technologii, może się bowiem okazać, że w ostatecznym rozrachunku to właśnie one przyczynią się do rozwoju resellerskiego biznesu.

Źródło: BrainSHARE IT

Komentarzy (0)

f-secure logo

Tags: , , ,

F-Secure pomoże zabezpieczyć inteligentne domy we współpracy z producentami routerów i operatorami

Dodany 20 maja 2018 przez admin

Urządzeń z zakresu Internetu rzeczy (IoT) jest już na świecie więcej, niż ludzi. Według najnowszego raportu Gartnera, do 2021 roku ich liczba wzrośnie o ponad 10 miliardów[1]. Aby zadbać o bezpieczeństwo oraz prywatność użytkowników, firma F-Secure wprowadza rozwiązanie wykorzystane w autorskim urządzeniu ochronnym SENSE[2] w formie oprogramowania Connected Home Security przeznaczonego dla producentów routerów oraz operatorów.

Według badania przeprowadzonego przez F-Secure, prawie połowa respondentów zrezygnowała z kupna nowego inteligentnego urządzenia z powodu kwestii związanych z bezpieczeństwem i prywatnością. 46% nie zdecydowało się na zakup w trosce o cyberbezpieczeństwo, a 48% w obawie przed gromadzeniem danych osobowych, które potencjalnie mogłyby wyciec[3]. Ostrożność jest uzasadniona, ponieważ według Gartnera już teraz 40% urządzeń IoT jest wykorzystywanych przez cyberprzestępców w atakach DDoS lub do tworzenia tzw. botnetów[4], a w razie braku podjęcia konkretnych działań do 2021 roku ten odsetek może przekroczyć nawet 75%. Według szefa bezpieczeństwa sprzętowego w firmie F-Secure, Andrei Barisaniego, zabezpieczanie inteligentnego domu powinno rozpocząć się od routera:
Routery są jednymi z najbardziej powszechnych urządzeń domowych, które łączą się z internetem, ale nie zawsze są tworzone z myślą o ochronie użytkowników. Nasz zespół ds. bezpieczeństwa sprzętowego ma duże doświadczenie w testowaniu routerów domowych oraz biurowych i za każdym razem udaje nam się znaleźć lukę w ich zabezpieczeniach, co w efekcie prowadzi do wprowadzenia odpowiednich poprawek. Tworzenie inteligentnego środowiska w oparciu o niezabezpieczony router jest równie ryzykowne jak budowanie domu na piasku – mówi Barisani.

Connected Home Security pozwala zadbać o bezpieczeństwo sieci, routera, treści przechowywanych w chmurze oraz urządzeń końcowych takich jak komputery, smartfony, tablety, a także inteligentne pralki czy lodówki. Rozwiązanie wykorzystuje możliwości autorskiego routera SENSE, który szyfruje komunikację w internecie, dbając o prywatność, a także chroni przed złośliwym oprogramowaniem, phishingiem oraz zabezpiecza inteligentne urządzenia przed cyberatakami. Teraz firma F-Secure oferuje SENSE producentom routerów oraz operatorom jako pakiet programistyczny (SDK) Connected Home Security, który mogą oni dostosowywać do swoich potrzeb i wykorzystać dla dużej bazy użytkowników.

Każdego dnia znacząco przybywa urządzeń z dziedziny Internetu rzeczy. Łączymy siły z producentami routerów oraz operatorami, aby wspólnie chronić użytkowników przed cyberatakami – dlatego zaprojektowaliśmy usługę dla inteligentnych domów Connected Home Security. Zapewniamy pełne wsparcie we wdrożeniu rozwiązania, oferując równocześnie prostotę obsługi i bezpieczeństwo wszystkich urządzeń po stronie użytkownika – mówi Michał Iwan, dyrektor regionalny w firmie F-Secure.

Oferta Connected Home Security obejmuje także inne rozwiązania, które operatorzy mogą dopasowywać do świadczonych usług, np. funkcję Reguły Rodzinne, umożliwiającą rodzicom zadbanie o bezpieczeństwo dzieci w internecie.

[1] Źródło: Gartner, Market Insight: Address 3 Critical Security Issues to Differentiate Yourself in the Connected Home Market, Annette Zimmermann i Saniye Burcu Alaybeyi, 26 kwietnia 2018.

[2] F-Secure SENSE to połączenie bezpiecznego routera Wi-Fi z zaawansowaną aplikacją ochronną oraz sprawdzonym rozwiązaniem chmurowym. Jego zadaniem jest zabezpieczenie urządzeń, które łączą się z Internetem, szczególnie w nowoczesnych domach.

[3] Źródło: badanie przeprowadzone w oparciu o wywiady internetowe z udziałem 4 000 respondentów z pięciu krajów (po 800 respondentów z: USA, Wielkiej Brytanii, Francji, Niemiec i Brazylii).

[4] Grupa urządzeń zainfekowanych złośliwym oprogramowaniem wykorzystywana przez hakerów do przeprowadzenia cyberataku.

Źrodło: F-Secure

Komentarzy (0)

ser logo

Tags: ,

Dlaczego sztuczna inteligencja wymaga rozwoju ECM?

Dodany 20 maja 2018 przez admin

Komputery kontrolują coraz więcej obszarów naszego życia. Być może już w niedalekiej przyszłości będziemy pracować wspólnie z robotami, jednak na ten moment musimy zadbać o rozwój sztucznej inteligencji, by wciąż móc wzmacniać jej potencjał. Konieczne jest zatem, aby przedsiębiorstwa były świadome korzyści płynących z tego typu rozwiązań.

Sztuczna inteligencja staje się coraz bardziej zaawansowana. Po pierwsze jest zdolna do podejmowania złożonych decyzji, po drugie – rozumie i potrafi przetworzyć coraz bardziej skomplikowane informacje. Mimo wszystko, minie jeszcze trochę czasu, zanim maszyny dorównają pracy człowieka, a jeszcze więcej zanim go zastąpią.

Aby sztuczna inteligencja mogła dostarczać zaawansowane technologicznie rozwiązania, potrzebne są dobrej jakości dane, ponieważ posiadanie dużej ilości zweryfikowanych i mądrzezarządzanych informacji jest niezbędne do prawidłowego działania systemów. Źle dobrane i – co ważne – źle przechowywane dane często powodują, że projekty oparte na sztucznej inteligencji zawodzą. W miarę rozwoju tego obszaru jest absolutnie uzasadnione, aby ECM odgrywał istotną rolę w nowym podejściu do zarządzania treściami w przedsiębiorstwie.

Cyfryzacja kluczem do sukcesu

Firmy, które zaczną czerpać korzyści ze sztucznej inteligencji będą tymi, które jako pierwsze zaakceptują nadchodzące zmiany, jednak cyfryzacja będzie tutaj kluczowym elementem. Może być ona tematem przewodnim w strategii dyrektorów technologicznych, jednak czy założenia te są faktycznie realizowane? Czy przedsiębiorstwa mogą i chcą zmieniać swoją strategię zarządzania oraz model biznesowy, aby wdrożyć u siebie sztuczną inteligencję? Wiele z nich gra na zwłokę, jednak może okazać się to niebezpieczne.

Prawdziwa sztuczna inteligencja nie jest jeszcze w pełni rozwinięta, ale nie oznacza to, że nie należy dążyć do digitalizacji, która oznacza między innymi uporządkowanie danych w firmie. Bez repozytoriów deep learning, aplikacje oparte na sztucznej inteligencji będą pozbawione danych, których potrzebują do prawidłowego działania. Dlatego też systemy Enterprise Content Management (ECM) nadal muszą stanowić część bieżących strategii IT wewnątrz firmy. Wszystkie technologie zaawansowanej analizy treści (deep CA), ontologii i przetwarzania języka naturalnego (NLP) są objęte usługami poznawczymi (cognitive services) i dostępne za pośrednictwem aplikacji ECM.

AUTOR: Marcin Somla, Dyrektor, SER Group

 

 

Dane mają znaczenie

Informacje napędzają sztuczną inteligencję, a dzięki technologiom takim jak Industry
4.0 i Internet rzeczy produkujemy ich coraz więcej. Szacuje się, że do 2020 r. globalna ilość danych wzrośnie dziesięciokrotnie, z 4,4 do zdumiewającej liczby 44 zettabajtów. Systemy ERP takie jak SAP nie są w stanie przetworzyć tak ogromnych ilości informacji. Niezbędne jest oprogramowanie kontekstowe, które może zarządzać i przechowywać duże ilości informacji. Logistyka informacyjna stanie się jednym z kluczowych czynników wpływających na tworzenie wartości. Dzięki niej właściwe informacje docierają do właściwej osoby we właściwy sposób i za rozsądną cenę. Firmy, które już rozumieją wartość danych i przechowują je w systemach ECM są już o krok przed konkurencją.

Częścią obietnicy ECM jest dostarczenie użytecznych informacji biznesowych na podstawie danych, które są przechowywane w systemie. Sztuczna inteligencja przekroczy te granice. Na przykład, ECM umożliwi komunikację przychodzącą i wychodzącą, a to znaczy, że będziemy mogli zadawać komputerowi pytania dotyczące dokumentów, a on je dla nas znajdzie. Urządzenia wearables będą przetwarzały informacje na temat klientów i wysyłały je do ubezpieczycieli, którzy będą
je przechowywać w repozytoriach obsługujących komendy głosowe. Możliwości jest mnóstwo.

Myśl przyszłościowo

 

Sztuczna inteligencja będzie miała kluczowe znaczenie dla kształtowania naszych społeczeństw
i gospodarek w przyszłości. Pomoże nam to rozwiązać duże problemy społeczne, takie jak rozwój inteligentnych, przyjaznych środowisku miast. Umożliwi również ludziom dokonanie przełomowych odkryć w takich dziedzinach, jak opieka zdrowotna, transport
i edukacja, jak również będzie kluczowym czynnikiem rozwoju demograficznego. W ciągu najbliższej dekady, sztuczna inteligencja będzie miała ogromny wpływ na biznes, a integracja danych będzie miała decydujące znaczenie dla postępu. Rewolucyjne przedsiębiorstwa są siłą napędową digitalizacji i szybko zaczną zwiększać swój udział na rynku zostawiając w tyle konkurencję nieufnie podchodzącą do zmian.

Komentarzy (0)

veeam logo

Tags: , , ,

RODO: 5 wskazówek, jak wykorzystać czas do 25 maja

Dodany 20 maja 2018 przez admin

Chyba nie ma już dziś osoby, która nie słyszałaby o unijnym rozporządzeniu o ochronie danych osobowych (RODO). Przepisy wchodzą w życie 25 maja, co oznacza, że grzywny za niezachowanie zgodności z nowym prawem czają się tuż za rogiem. Zapraszamy do zapoznania się z pięcioma poradami, które pozwolą uniknąć nieprzyjemnych incydentów. 

Warto pamiętać, że droga do sfinalizowania unijnej dyrektywy była długa i wyboista – wszystko zaczęło się w 2012 roku, kiedy Komisja Europejska zaproponowała kompleksową reformę przepisów o ochronie danych z 1995 r. Propozycje zmieniły się w plany, a te stają się wreszcie rzeczywistością. Po wszystkich rozmowach, komentarzach, radach i debatach, okres dostosowawczy dobiega końca. W tym czasie bynajmniej nie brakowało informacji o tym, czego można oczekiwać po nowych regulacjach. Ogromna ilość literatury związanej z RODO (ang. GDPR, General Data Protection Regulation) jest jednak uzasadniona, zważywszy na skutki rozporządzenia.

RODO wywrze głęboki wpływ na wszystkie organizacje, które są odpowiedzialne za przetwarzanie i przechowywanie danych osobowych obywateli Unii Europejskiej. W praktyce oznacza to, że odczują go również firmy spoza Europy. W istocie każda organizacja, która prowadzi interesy z partnerem w Europie, będzie podlegać nowym regułom. W dzisiejszym cyfrowym świecie bez granic globalne przedsiębiorstwa będą zobligowane przestrzegać tych samych przepisów dotyczących przetwarzania informacji osobowych.

Przypomnijmy, że grzywny mogą być bardzo wysokie: do 4 proc. rocznego obrotu organizacji albo 20 milionów euro – w zależności od tego, która kwota jest większa. W obliczu nadchodzącego terminu wejścia w życie nowego prawa, warto dokładnie i kilkukrotnie sprawdzić to, czy firma jest odpowiednio przygotowana. Ryzyko niezgodności z przepisami i grożące kary finansowe są zbyt duże, żeby zdać się na łut szczęścia.

Andrzej Niziołek z Veeam Software w prosty sposób opisuje kilka istotnych aspektów, na które warto zwrócić uwagę podczas końcowego odliczania.

  1. Upewnij się, że każdy wie o nowych przepisach

Niektóre firmy i organizacje przygotowujące się na RODO mianują albo już mianowały inspektora ochrony danych osobowych. W istocie w niedawnym artykule w IT Pro można było przeczytać o firmach nerwowo poszukujących kandydatów na to stanowisko. Nawet jeśli niektóre zwlekały z zatrudnieniem takiego specjalisty zbyt długo, rekrutacja takiej osoby to rozsądna decyzja, ponieważ inspektor nie tylko jest przydatnym ekspertem, ale może być również orędownikiem RODO – kimś, kto zaznajomi całą firmę z najlepszymi praktykami RODO. Co więcej, będzie umiał zarekomendować narzędzia, które pomogą w tworzeniu zapasowych kopii danych na wypadek ataku.

Ale nawet przedsiębiorstwa, które nie planują zatrudnić inspektora danych osobowych, powinny pamiętać, że RODO jest sprawą całej organizacji. Oznacza to, że wszyscy kluczowi interesariusze powinni dobrze zrozumieć implikacje i wymagania nowych przepisów oraz ich wpływ na procesy w firmie.

  1. Przeprowadź audyt danych

W tym momencie każda firma powinna już wiedzieć, jakie dane osobowe posiada w swoich zasobach informatycznych, gdzie i jak są one przechowywane oraz skąd pochodzą. Organizacje powinny też wiedzieć, dlaczego są w posiadaniu tych informacji oraz w jaki sposób je uzyskały. Lokalne agencje ds. zgodności z RODO mogą im zadać każde z tych pytań.

Jeśli Twoja firma nie dysponuje takim poziomem wiedzy, czas się pospieszyć i znaleźć odpowiedzi na pytania. Od końca maja 2018 r. trzeba będzie umieć określić podstawę prawną do przetwarzania danych. Władze nie będą pobłażać firmom, które padają ofiarą ataków, a nie mają kopii zapasowych, które zapewniałyby bezpieczeństwo danych. Grzywny są realne, o czym niebawem przekonamy się na czyimś przykładzie.

  1. Zapoznaj się z prawami konsumentów dotyczącymi prywatności

Jedną z dużych zmian, jakie przynosi RODO, są większe prawa obywateli związane z zarządzaniem danymi. Warto przywołać w tym miejscu konkretny przykład dowodzący siły tego narzędzia – w ciągu trzech minionych lat do Google wpłynęło 2,4 mln wniosków o usunięcie wyników wyszukiwania. Liczba ta szybko wzrośnie, kiedy ludzie lepiej zrozumieją swoje prawo do bycia zapomnianym.

Oprócz tego właściciele danych osobowych będą mogli domagać się dostępu do informacji personalnych albo do otrzymania ich kopii (w czytelnym dla nich formacie). Jeśli nie chcesz, żeby prawo to stało się dużym obciążeniem dla Twojej organizacji, upewnij się, że możesz oznaczyć lokalizację każdego zbioru danych, aby w razie potrzeby móc uzyskać do niego dostęp. To mała zmiana, które może przynieść duże korzyści.

  1. Stwórz plan na wypadek naruszenia ochrony danych

Według przepisów RODO organizacje muszą zgłosić naruszenie ochrony danych w ciągu 72 godzin od jego wykrycia. Nie zostawia to wiele czasu, zwłaszcza że pierwsze godziny po włamaniu będą bardzo nerwowe ze względu na konieczność zabezpieczenia śladów i zapanowania nad sytuacją. W rezultacie trzeba zadbać o przygotowanie właściwego planu, który umożliwi wykrycie, zgłoszenie i opanowanie incydentu, jeśli do niego dojdzie.

Tu może pomóc dodatkowe oprogramowanie do raportowania. Narzędzia, które pozwalają firmom dokładnie wskazać lokalizację repozytoriów kopii zapasowych, mogą oszczędzić dużo czasu podczas zgłaszania incydentu  A jeśli dane staną się niedostępne z powodu złośliwego oprogramowania, technologie do przywracania umożliwią ich łatwe odzyskanie.

  1. Nie przestawaj udoskonalać wewnętrznych procedur

Oczywiście dobrze jest mieć plan, ale jeszcze lepiej jest pozostawić miejsce na ciągłe ulepszenia. Zwłaszcza wówczas, kiedy w grę wchodzi dostępność, jakość i bezpieczeństwo danych – kiedy dane stają się jednym z najcenniejszych zasobów naszych czasów.

Zważywszy na tempo, w jakim zmienia się współczesny świat, jest bardzo prawdopodobne, że w najbliższych latach będzie zmieniał się również krajobraz cyfrowy – nawet jeszcze szybciej niż w ciągu minionej dekady. Dlatego trzeba iść z duchem czasu, testując nowe technologie i ewoluując wraz z nimi. RODO nie kończy się 25 maja, ale właśnie wtedy się dopiero zaczyna.

Autor: Andrzej Niziołek, starszy menedżer regionalny Veeam Software w północnej i południowej części Europy Wschodniej

Komentarzy (0)

gorepair logo

Tags: , ,

Co najczęściej psuje się w laptopach?

Dodany 06 maja 2018 przez admin

Uszkodzona matryca, niedziałająca klawiatura, urwane zawiasy ekranu – to tylko kilka z wielu problemów, jakie spotykają właścicieli przenośnych komputerów. Co najczęściej psuje się w laptopach i jak można zapobiec usterkom?

Każdy z użytkowników przynajmniej raz doświadczył problemu ze swoim urządzeniem. Mogło to być zalanie herbatą, uszkodzenie ekranu na skutek upadku lub wyrwanie złącza ładowania. Każda z tych usterek utrudnia lub całkowicie uniemożliwia normalne korzystanie z komputera, a gwarancja serwisowa zazwyczaj nie obejmuje tego typu usterek.  Dlatego rozwiązaniem jest samodzielna naprawa, skorzystanie z usługi serwisu lub zakup nowego urządzenia. Jeśli wziąć pod uwagę względnie wysokie ceny nowych modeli, naprawa zdaje się być najlepszym wyborem.

Matryca – naprawa czy wymiana?

Bez wątpienia najczęściej psującym się elementem laptopów jest matryca – główną przyczyną są z reguły uszkodzenia mechaniczne, chociaż równie często występują problemy związane z układami zasilania, przewodami lub tzw. bad piksele. Efekt? Pęknięcia matrycy, nieczytelny obraz oraz migotanie ekranu, które utrudniają lub wręcz uniemożliwiają korzystanie z komputera.

„Sposób naprawy matrycy zależy w dużej mierze od przyczyny usterki” – powiedział Piotr Pachota z serwisu GoRepair.pl. „Czasem wystarczy wymiana jednego z podzespołów, odpowiedzialnego za wyświetlanie obrazu. Z kolei pękniętą matrycę można wyłącznie wymienić na nową – na szczęście w przypadku kilkuletnich laptopów nie będzie wiązało się to z wysokimi kosztami” – dodał.

Ingerencja cieczy

Podczas korzystania z laptopa mało który użytkownik odmawia sobie wody, kawy czy innego rodzaju napojów, często wyskokowych. W związku z tym ingerencja cieczy (lub bardziej potocznie: zalanie) laptopa może zdarzyć się praktycznie każdemu. I chociaż często zdarza się, że laptop po zalaniu działa bezproblemowo, to wizyta w serwisie jest nieunikniona.

Najważniejsza jest zdecydowana i szybka reakcja – najpierw należy odłączyć źródło zasilania i o ile to możliwe wyjąć baterię. Następnie należy przekazać urządzenie specjaliście, ponieważ samodzielna naprawa może przynieść więcej szkód, niż tylko ingerencja cieczy. Warto pamiętać, że bezpośrednio po zalaniu laptopa absolutnie nie wolno suszyć suszarką ani włączać.

Zbyt wysoka temperatura

Laptop wyłącza się podczas pracy bez żadnego ostrzeżenia? Może to być wina nieskutecznego układu chłodzenia lub korzystania z urządzenia na nieodpowiedniej powierzchni. W  kilkuletnich urządzeniach problemem są z pewnością zakurzony układ chłodzenia oraz stara pasta termoprzewodząca, która z wiekiem twardnieje i traci swoje właściwości.

Pierwszym krokiem podczas naprawy tej usterki jest dokładne oczyszczenie układu chłodzenia oraz nałożenie świeżej pasty termoprzewodzącej. Drugim – zmiana nawyków podczas korzystania z laptopa. Komputer powinien być umieszczony na płaskiej powierzchni, która umożliwia dopływ powietrza do otworów wentylacyjnych. Unikamy zatem kolan, kołder i koców!

Inne uszkodzenia mechaniczne

Do tej kategorii zaliczają się przede wszystkim uszkodzenia zawiasów, portów, złączy, pęknięcia kadłubków i pokryw, ale także zwarcia, przepięcia oraz uszkodzenia dysków. Przyczyną zdecydowanej większości z nich jest nieodpowiednie i nieostrożne korzystanie z laptopa oraz urządzeń peryferyjnych.

Aby laptop działał jak najdłużej, trzeba pamiętać o przestrzeganiu kilku prostych zasad – przede wszystkim nie wolno podnosić urządzenia za ekran czy też przenosić go, gdy jest podłączone do zasilania. Podczas transportu konieczne jest korzystanie ze specjalnej torby lub plecaka z pianką, amortyzującą wstrząsy i uszkodzenia. Warto korzystać też wyłącznie z oryginalnych akcesoriów.

Rozwiązanie?

Laptopy poza kilkoma wyjątkami to bardzo delikatne urządzenia, które są wrażliwe na działanie wilgoci, zbyt wysoką lub niską temperaturę oraz wstrząsy i upadki. Zmiana kilku nawyków podczas korzystania z tych urządzeń pozwoli na wyeliminowanie większości usterek, powstających z winy użytkowników.

Źródło: GoRepair.pl

Komentarzy (0)

veeam logo

Tags: ,

Wyniki finansowe Veeam Software za pierwszy kwartał 2018 roku

Dodany 06 maja 2018 przez admin

  • Coraz więcej klientów wdraża platformę hiperdostępności Veeam; pakiet Veeam Availability Suite Update 3 został pobrany ponad 150 tys. razy od dnia premiery
  • Łączne zamówienia wzrosły o 58 proc. rok do roku, a liczba transakcji o wartości przekraczającej 100 tys. dol. wzrosła o 55 proc. rok do roku
  • W pierwszym kwartale 2018 r. Veeam pozyskał ponad 12 tys. klientów, a ich liczba obecnie przekracza 294 tys.
  • Dzięki strategicznym sojuszom z HPE, Cisco i NetApp łączne przychody z zamówień zanotowały trzycyfrowy wzrost rok do roku, a do ekosystemu partnerskiego Veeam dołączyło ponad 2100 nowych partnerów, których liczba obecnie wynosi 55,4 tys.
  • Produkty dostępne w modelu subskrypcyjnym od początku cieszą się dużą popularnością; sprzedaż Veeam Backup for Microsoft Office 365 wzrosła o ponad 3000 proc. rok do roku, a rozwiązań Veeam Agent dla Windows and Linux – o ponad 1000 proc. rok do roku

Firma Veeam® Software, lider w dziedzinie inteligentnego zarządzania danymi dla hiperdostępnych przedsiębiorstw (Intelligent Data Management for the Hyper-Available Enterprise™) przedstawiła wyniki finansowe za pierwszy kwartał 2018 r. W 39. z rzędu kwartale rekordowych wyników firma odnotowała 21-procentowy wzrost sprzedaży rok do roku. 12 tys. nowych firm powiększyło grono klientów do 294 tysięcy, a dzięki klientom korporacyjnym, których liczba wzrosła o 58 proc. rok do roku, Veeam jest na dobrej drodze, żeby w 2018 r. osiągnąć obroty przekraczające miliard dolarów.

„Jako cieszący się największym zaufaniem dostawca rozwiązań do inteligentego zarządzania danymi, pomagamy firmom sprostać oczekiwaniom świata, który wymaga hiperdostępności danych. Dziś, dzięki najbardziej kompletnej platformie hiperdostępności, która chroni dowolne dane i dowolną aplikację w każdej chmurze, wspieramy niemal 300 tys. klientów w podróży ze starego świata okresowych backupów i nerwowego przywracania zasobów informatycznych do nowego świata samouczących się rozwiązań działających w inteligentnie zautomatyzowanym systemie, który obejmuje całe hiperrozszerzone przedsiębiorstwo” – powiedział Peter McKay, dyrektor generalny i prezes Veeam.

Zaangażowanie w potrzeby klientów będzie motorem wzrostu, który pozwoli firmie osiągnąć tegoroczny cel, jakim jest osiągnięcie łączych przychodów z zamówień w wysokości miliarda dolarów. Aby zrealizować misję i osiągnąć zakładany wzrost, Veeam zainwestował znaczne środki w zespoły inżynierskie i programistyczne. Firma rozwinęła marketing i branding, wprowadziła dodatkowe instrumenty motywacyjne w programach partnerskich, rozszerzyła relacje z partnerami i zwiększyła nacisk na duże przedsiębiorstwa. Pozwoliło to osiągnąć solidne wyniki we wszystkich regionach geograficznych, z których każdy odnotował w pierwszym kwartale dwucyfrowy wzrost sprzedaży rok do roku. Był to doskonały początek kolejnego rekordowego roku i można mieć pewność, że ta dynamika wzrostu, umiejętności kierownictwa oraz unikatowa platforma hiperdostępności sprawią, że w tym roku organizacja dołączy do grona firm, których obroty przekraczają miliard dolarów.

Na tle całej firmy wyniki polskiego oddziału Veeam Software wyglądają równie imponująco. W pierwszym kwartale br. polski oddział firmy wygenerował (w ujęciu rok do roku):

  • 78-procentowy wzrost odnowień licencji;
  • 54-procentowy wzrost łącznej sprzedaży rozwiązań;
  • 44-procentowy wzrost sprzedaży nowych licencji;
  • 44-procentowy wzrost liczby klientów z sektora dużych przedsiębiorstw.

Najważniejsze wydarzenia w pierwszym kwartale 2018 r.

  • Platforma hiperdostępności Veeam. Coraz więcej klientów wdraża platformę hiperdostępności Veeam – kluczowy komponent najbardziej kompleksowego rozwiązania do ochrony danych i zarządzania danymi ze zintegrowanym zarządzaniem agentami – która pozwala firmie chronić dowolną aplikację i dowolne dane w każdej chmurze. Najnowsza wersja Veeam Availability Suite 9.5 Update 3 została pobrana ponad 150 tys. razy od czasu premiery w grudniu 2017 r.
  • Nowi klienci. Veeam ma 294 tys. klientów, którzy reprezentują ponad 16,3 mln maszyn wirtualnych chronionych przez rozwiązania dostępności Veeam, i co miesiąc zdobywa średnio 4000 nowych. Do nowych klientów Veeam należą m.in. Pernod Ricard Hong Kong Limited, ING Belgium, SKY Italia, Landmark Information Group, Equinix, Unipres Mexicana, HireRight, Ameritas, Termomecanica oraz Follett LLC.
  • Strategiczne sojusze Veeam nadal rozwijają się dynamicznie – łączne przychody z zamówień uzyskanych za pośrednictwem partnerów zanotowały trzycyfrowy wzrost rok do roku. Przychody ze wspólnych transakcji Veeam i HPE wzrostły o 148 proc. rok do roku dzięki przystąpieniu Veeam do programu HPE Complete, który pozwala klientom nabywać kompletne rozwiązania HPE i Veeam bezpośrednio od firmy HPE i jej resellerów. Po dodaniu rozwiązań Cisco do globalnego cennika Veeam, transakcje Veeam i Cisco w pierwszym kwartale 2018 r. wzrosły o 299 proc. kwartał do kwartału. Firma została również dodana do globalnego cennika NetApp, co jeszcze bardziej wzmocni jej pozycję na rynku korporacyjnym.
  • Nowy interfejs Veeam Universal Storage API upraszcza proces integrowania pamięci masowej z platformą dostępności Veeam. W rezultacie niektórzy partnerzy sojuszu Veeam Alliance, tacy jak Pure Storage i INFINIDAT, mogą teraz szybciej integrować swoje rozwiązania, oferując więcej korzyści większej liczbie klientów w krótszym czasie i zapewniając jeszcze wyższy zwrot z inwestycji IT.
  • Program Veeam Cloud & Service Provider (VCSP) nadal dynamicznie się rozwija w tempie 38 proc. rocznie. Liczba maszyn wirtualnych chronionych przez rozwiązania Veeam wzrosła o 36 proc. rok do roku, co pokazuje rosnące zaufanie do Veeam jako najlepszej wielochmurowej, inteligentnej platformy do zarządzania danymi. Veeam stymuluje wzrost tego rynku i obecnie ma ponad 3200 partnerów świadczących usługi BaaS i DRaaS z wykorzystaniem Veeam Cloud Connect.
  • Przejęcie N2WS. Veeam dokonał pierwszego przejęcia od 10 lat, nabywając za gotówkę N2WS, czołowego dostawcę rozwiązań chmurowych, korporacyjnych rozwiązań do backupu i usuwania skutków awarii dla Amazon Web Services (AWS). Przejecie to umocniło Veeam na pozycji czołowego dostawcy rozwiązań, które zapewniają dostępność dowolnej aplikacji i dowolnych danych w każdej chmurze, a także zdolność firmy do ochrony wdrożeń AWS.
  • Sprzedaż subskrypcji. Dynamicznie zwiększa się sprzedaż produktów subskrypcyjnych oraz ich udział w ogólnej sprzedaży. W pierwszym kwartale sprzedaż subskrypcji Veeam Backup for Microsoft Office 365 wzrosła o ponad 3000 proc. rok do roku. Ponad 29 000 organizacji reprezentujących 2,7 mln skrzynek pocztowych Microsoft Office 365 pobrało Veeam Backup for Microsoft Office 365 w celu ochrony swoich danych. Veeam Availability Suite 9.5 Update 3 umożliwia wdrażanie rozwiązań Veeam Agent for Microsoft Windows oraz Veeam Agent for Linux za pomocą Veeam Backup & Replication w celu ochrony fizycznych, niewirtualnych serwerów i urządzeń końcowych, a także dowolnych obciążeń roboczych działających w chmurze publicznej. Sprzedaż subskrypcji agentów Veeam zwiększyła się o ponad 1000 proc. rok do roku.
  • Wzmocnienie zespołu. Veeam ma już ponad 3200 pracowników na całym świecie i wzmacnia swój zespół, m.in. rozszerzając wewnętrzne role w firmie. Główny analityk ESG Jason Buffington niedawno dołączył do zespołu strategii produktowej Veeam jako starszy dyrektor. Buffington będzie promował firmę na kluczowych imprezach branżowych, nawiązywał i podtrzymywał relacje z kierownictwem strategicznych, korporacyjnych klientów Veeam, a także komunikował w branży długoterminową wizję i strategię firmy. Buffington od niemal 30 lat pracuje w firmach, które zaliczają się do liderów i innowatorów w dziedzinie ochrony danych, specjalizujących się w ochronie, przechowywaniu, zarządzaniu i zapewnianiu dostępności informacji. Ken MacAskill awansował na stanowisko głównego dyrektora finansowego (CFO) Veeam. Dołączył do firmy w 2017 r. jako kierownik zespołu strategii rynkowej. MacAskill od 20 lat kieruje działami finansowymi jako CFO i ma duże doświadczenie w pracy z szybko rozwijającymi się firmami.

Trwają zapisy na VeeamON 2018, wiodącą konferencję poświęconą inteligentnemu zarządzaniu danymi, która odbędzie się w dniach 14-16 maja 2018 r. w Chicago w Illinois. W ubiegłorocznej konferencji VeeamON 2017 w Nowym Orleanie w Luizjanie oraz w regionalnych imprezach VeeamON Forum organizowanych na całym świecie wzięło udział niemal 10 tys. klientów, partnerów i liderów opinii.

Źródło: Veeam Software

Komentarzy (0)

Zdjęcia z naszego Flickr'a

Zobacz więcej zdjęć

Reklama

Straciłeś dane? Skontaktuj się z Kroll Ontrack

POWIĄZANE STRONY