Archiwum wg Tagów | "vertiv"

Tags: , , , ,

Jak dbać o urządzenia z rodziny przemysłowego internetu rzeczy

Dodany 15 kwietnia 2021 przez admin

Jeszcze przed pandemią analitycy z firmy konsultingowej McKinsey przewidywali, że rozwiązania przemysłowego internetu rzeczy (IIoT – Industrial Internet of Things) do 2025 roku na świecie wygenerują wartość nawet 3,7 biliona dolarów. Chociaż globalny kryzys spowolnił ich wdrażanie w fabrykach i magazynach, to nie ma wątpliwości, że środowisko IIoT będzie się nadal dynamicznie rozwijało.

Przemysłowy internet rzeczy znajdzie zastosowanie we współczesnym przemyśle, ponieważ ma dużą potencjalną wartość i może pomóc w przetwarzaniu olbrzymich ilości danych.

Rzeczywista wartość ekonomiczna IIoT w nadchodzących latach może być trochę mniejsza ze względu na pandemię koronawirusa, jednak prognoza firmy McKinsey odzwierciedla potencjał tych rozwiązań, które umożliwiają redukcję przestojów, zwiększenie produktywności i wydajności oraz poziomu wykorzystania zasobów przedsiębiorstwa – przewiduje Gerard Dermont, Dyrektor Działu Sprzedaży Regionalnej na Polskę i kraje bałtyckie w firmie Vertiv.

Wartość obliczeń brzegowych IIoT

Urządzenia IIoT to m.in. czujniki, sterowniki czy przemysłowe platformy obliczeniowe, które gwarantują lepszy wgląd w działanie i kontrolę sprzętu zapewniającego ciągłość pracy firm, magazynów i fabryk. Sprzęt umożliwiający działanie aplikacji przemysłowych generuje w krótkim czasie tak duże ilości danych, że do analizowania ich w czasie rzeczywistym nie można polegać wyłącznie na chmurze. Oznacza to, że w wielu przypadkach czerpanie korzyści płynących z IIoT będzie wymagało zainstalowania sprzętu IT w magazynie lub hali fabrycznej, gdzie jest on narażony na znacznie bardziej niekorzystne warunki środowiskowe niż w centrum danych lub w środowisku biurowym.

Wyzwania infrastrukturalne związane z urządzeniami przemysłowymi podłączonymi do internetu

Przedsiębiorstwa planujące wdrożenie infrastruktury brzegowej w środowiskach przemysłowych muszą dokonać analizy w kilku wymienionych poniżej obszarach i rozważyć, w jaki sposób warunki obserwowane w tych środowiskach mogą wpłynąć na działanie systemów IT, narażając je na ryzyko.

Zmienność zasilania – Jak w przypadku każdej lokalizacji podłączonej do internetu, niezbędne jest wdrożenie zasilania awaryjnego, które będzie zapobiegać występowaniu przerw w dostawie energii. W środowiskach produkcyjnych i zautomatyzowanych magazynach kondycjonowanie zasilania może być jeszcze ważniejsze. Maszyny pracujące w tych obiektach często generują szum elektryczny, który może zakłócać pracę sprzętu informatycznego, jeśli nie zadbano wcześniej o jakość zasilania, przed jego dotarciem do systemów informatycznych. Różne typy zasilaczy UPS zapewniają różne modele podejścia do kondycjonowania zasilania, a rodzaj wybranego zasilacza decyduje o jego skuteczności przy usuwaniu zakłóceń. W trudnych warunkach pracy najlepszy jest zasilacz UPS z podwójną konwersją online, ponieważ zapewnia on prąd zmienny o najczystszym przebiegu.

Warunki środowiskowe – W większości środowisk przemysłowych nie sposób utrzymać temperatury i wilgotności wymaganej do niezawodnej pracy sprzętu IT. Dlatego niezbędny jest specjalny sposób chłodzenia. W dużych, otwartych przestrzeniach magazynów lub fabryk moduły wentylacyjne lub klimatyzacyjne są zwykle zintegrowane z obudową sprzętu IT lub zamontowane obok niego.

Jakość powietrza – W środowiskach przemysłowych występuje również większe stężenie unoszącego się w powietrzu pyłu i cząstek stałych, niż np. w centrum danych. Zanieczyszczenia te mogą mieć wpływ na niezawodność i żywotność sprzętu, jeśli zostaną np. wciągnięte przez wentylatory serwera. Ochrona urządzeń wymaga specjalnych, uszczelnionych szaf lub obudów, które zapobiegają przedostawaniu się nieprzefiltrowanego powietrza do sprzętu. Dzięki chłodzeniu zintegrowanemu z obudową tworzone jest czyste środowisko o kontrolowanej temperaturze, niezależnie od jakości powietrza zewnętrznego.

Bezpieczeństwo fizyczne – Podstawowym założeniem przetwarzania brzegowego jest wdrożenie serwerów i pamięci masowej blisko ludzi i urządzeń, które obsługują. W produkcji oznacza to zazwyczaj zainstalowanie sprzętu IT w miejscach, gdzie istnieje ryzyko uzyskania nieautoryzowanego dostępu przez personel. W tej sytuacji mogą pomóc zamykane szafy lub czujniki alarmowe rozmieszczone na drzwiach.

Widoczność infrastruktury brzegowej – Większość oddalonych, podłączonych do internetu lokalizacji, znajduje się w środowiskach, w których zasoby techniczne są ograniczone. Oprogramowanie do zdalnego monitorowania daje specjalistom IT możliwość wglądu w wydajność sprzętu, co pozwala upewnić się, że działa on zgodnie z przeznaczeniem. Po wyposażeniu go w dodatkowe czujniki oraz narzędzia do zdalnego monitorowania, mogą również generować alarmy o sytuacjach, które są potencjalnie niebezpieczne dla sprzętu, jak np. podwyższona temperatura, zalanie lub nieautoryzowany dostęp.

Firmy wdrażające IIoT w trudnych warunkach mogą to zrobić wybierając odpowiednie rozwiązania z zakresu zasilania, chłodzenia obudów i monitorowania, które spełniają wymagania danego środowiska, a następnie integrować te komponenty na miejscu – mówi Gerard Dermont. – Takie podejście może jednak wydłużyć czas wdrożenia, nadwyrężyć zasoby IT i utrudnić standaryzację infrastruktury w wielu obiektach. Lepszym wyjściem jest skorzystanie z kompletnych, zintegrowanych rozwiązań, zaprojektowanych i przetestowanych w celu zapewnienia najwyższej wydajności i niezawodności działania urządzeń IIoT – podsumowuje ekspert Vertiv.

Źródło: Vertiv

 

Komentarzy (0)

Tags: ,

Jak centra danych radzą sobie ze zwiększonym ruchem w Internecie?

Dodany 06 maja 2020 przez admin

Od lat w branży centrów przetwarzania danych istnieje zjawisko tworzenia nadmiaru mocy produkcyjnej i jej niedostatecznego wykorzystania. Do niedawna na świecie nierzadko można było zobaczyć placówkę przygotowaną na pobór energii elektrycznej przez rozwiązania IT na poziomie 10 megawoltoamperów (MVA), podczas gdy jej rzeczywiste obciążenie wynosiło tylko 2 MVA. Jeszcze bardziej powszechne było wykorzystanie mocy obliczeniowej serwerów na poziomie poniżej 10 procent i dotyczyło to nie tylko pojedynczych urządzeń czy szaf teleinformatycznych, ale całych systemów IT.

Społeczność zajmująca się efektywnością energetyczną i jej optymalizacją spędziła wiele lat na próbach wdrażania infrastruktury IT u klientów „na wymiar”. Pewną nadzieją była strategia modułowego rozwoju rozwiązań teleinformatycznych, dla których w nadmiarze (zgodnie z planami dalszej rozbudowy mocy obliczeniowej placówki) trzeba było zapewnić jedynie krytyczną infrastrukturę fizyczną, taką jak zasilanie i chłodzenie. Jednak w takiej sytuacji zapotrzebowanie na sprzęt IT często było znacznie zawyżone, co pozostawiało lukę pomiędzy oczekiwaniami projektowymi, a rzeczywistością.

Moc na zapas

Przyjęło się, że w tradycyjnych, korporacyjnych centrach danych jeden serwer (lub jeden procesor w serwerze) odpowiada za obsługę jednej konkretnej aplikacji. Dopiero wprowadzenie dodatkowej warstwy programowej pomiędzy sprzęt i aplikacje, czyli wirtualizacji, zapewniło bardziej optymalne wykorzystanie serwerów. – Nadal jednak sytuacja jest daleka od idealnej. Duże środowiska IT wciąż budowane są z zapasem, aby zaspokoić potrzeby użytkowników w trakcie największego obciążenia, np. w takie dni, jakimi dla sklepów internetowych są Czarny Piątek, Cyberponiedziałek, Boże Narodzenie czy okres wyprzedaży poświątecznych – zauważa Bartłomiej Raab, country manager w Vertiv Polska. – Aby zabezpieczyć się przed skutkami ewentualnej katastrofy, buduje się nadmiarowe systemy, gdzie w zapasowym centrum danych duża ich ilość jest replikowana – na wszelki wypadek.

Organiczne centra danych

Rozwiązanie tego problemu pojawiło się dopiero w przypadku bardzo dużych centrów danych, które można przyrównać do ciężarówek o wydajności superszybkich samochodów. – Są one w stu procentach zarządzane przez oprogramowanie, a dzięki unifikacji użytkowanego sprzętu do przetwarzania i przechowywania danych operator takiej placówki ma do dyspozycji dziesiątki tysięcy podłączonych do sieci procesorów i urządzeń pamięci masowej, które skutecznie działają jak jeden „organizm” – wyjaśnia Bartłomiej Raab. Co więcej, kilka tego typu centrów danych może być połączonych ze sobą, dzięki czemu wstrzymanie pracy jednego z nich (np. wskutek katastrofy naturalnej lub planowanych prac serwisowych) powoduje jedynie niewielki spadek wydajności, a nie utratę usług.

Eksperci Vertiv wskazują, że za przykład mogą posłużyć zapytania wysyłane przez wyszukiwarkę Google. Każde z nich trafia w tym samym czasie do trzech różnych centrów danych znajdujących się w różnych miejscach na świecie. Ta placówka, która będzie najszybsza, dostarcza wyniki wyszukiwania. A jeśli któraś z nich będzie nieczynna, pozostały jeszcze dwie.

Podobne reguły dotyczą sieci, przez które wysyłane są zapytania. Jednak instalacja światłowodowych przewodów musi być zaplanowana z nadmiarem. Procedura umieszczenia kabli w ziemi oraz na dnie morza jest bardzo kosztowna. Planując nowe trasy, dostawca sieci musi zatem myśleć w perspektywie minimum dziesięcioletniej. Gdy część z jego infrastruktury jest już w pełni wykorzystana, po prostu wówczas uruchamia kolejne, niewykorzystane dotychczas połączenia światłowodowe.

Nieoczekiwane obciążenia

Dziś mamy do czynienia z bezprecedensową sytuacją, w ramach której ogrom ludzi – specjalistów i uczniów – wykonuje swoje obowiązki z domu, uczestniczy w wideokonferencjach oraz dzieli się wynikami pracy przez internet. Zauważają to także operatorzy telekomunikacyjni – w niedawnym komunikacie prasowym dyrektor ds. technologii w firmie BT stwierdził, że dotychczas w tej największej brytyjskiej sieci telekomunikacyjnej szczytowe natężenie ruchu obserwowano zwykle przez kilka godzin w niedzielny wieczór. Teraz ilość przesyłanych danych jest większa niż kiedykolwiek wcześniej i praktycznie nie spada.

I nawet jeśli łączność z niektórymi osobami stanowi wąskie gardło, cały ekosystem wciąż działa bardzo wydajnie. Także operatorzy nieustannie śledzą jakość łączy i rozbudowują je w razie potrzeby – obecna sytuacja to dla nich idealna okazja do weryfikacji elastyczności pracy własnej sieci. Tam, gdzie wymagana jest większa przepustowość, jest ona zapewniana w ciągu kilku dni. Na szczęście nie stanowi to dla firm dużego problemu dzięki temu, że wcześniej zainwestowały w swoje centra danych z dużym zapasem.

Źródło: Vertiv

Komentarzy (0)

Tags: , ,

Coraz więcej aktywności przenosi się do internetu, czy infrastruktura temu podoła?

Dodany 29 kwietnia 2020 przez admin

Sytuacje kryzysowe, z jakimi mamy obecnie do czynienia, przyspieszają ewolucję trendów już obecnych w społeczeństwie – twierdzi Robert Kargon, profesor historii nauki na Uniwersytecie Johna Hopkinsa. Być może dzięki temu wkrótce będziemy mogli cieszyć się większym poziomem elastyczności w wykonywaniu zawodowych obowiązków, równowagą między pracą a życiem prywatnym oraz mniejszym natężeniem ruchu drogowego.

W tradycyjnym modelu zmiana zachowania i przyzwyczajeń wymaga czasu oraz przejścia społeczeństwa przez kolejne etapy. Obecnie zaś wiele osób doświadczyło błyskawicznej transformacji sposobu w jaki pracują – dotyczy to kwestii związanych z przemieszczaniem się, miejscem pracy i stylem biznesowych interakcji. – Przez miesiąc zrobiliśmy to, co normalnie trwa lata i ominęliśmy praktycznie wszystkie etapy procesu zmiany – podkreśla Bartłomiej Raab, Country Manager w firmie Vertiv Poland.

Nie było możliwości przeanalizowania korzyści, zaplanowania działań, zweryfikowania tych planów czy finalnie przygotowania się. Nagle wszyscy znaleźli się w nowym otoczeniu biznesowym. Dla wielu ma ono zalety. Inni marzą o powrocie do biura. Pewne jest natomiast, że praca z domu dla większości będzie nową normą, nawet jeśli restrykcje dotyczące przemieszczania się zostaną w pewnym stopniu rozluźnione.

Jeszcze do niedawna można było twierdzić, że Internet przyczynił się do zwiększenia komfortu naszego codziennego życia. Dziś wiadomo, że stał się on krytycznym medium komunikacji i pracy. Umożliwia wizualną interakcję z osobami, których nie możemy fizycznie odwiedzić, zapewnia środki do życia, bezpieczeństwo i komfort psychiczny. – Internet znalazł rację bytu nawet w zawodach, które nie są zależne od technologii. Korzystają z niego nauczyciele, instruktorzy fitness czy lekarze – niektórzy z nich w ten sposób często po raz pierwszy. Zjawisko to nie pozostanie bez wpływu na informatykę i wspierającą ją infrastrukturę – mówi Bartłomiej Raab.

  1. Zwiększone wykorzystanie chmury

Raczej należy zakładać, że sytuacja, którą wcześniej uznawano za normalną, wróci nieprędko (jeśli w ogóle). Dlatego menedżerowie przedsiębiorstw będą chcieli zabezpieczyć je przed kolejnymi, potencjalnie nadchodzącymi wyzwaniami, uodpornić przeciwko ewentualnym kryzysom i zapewnić możliwość wprowadzenia nowego modelu pracy. Oczywisty zatem staje się znaczny wzrost zainteresowania chmurą. Firmy będą przenosiły do niej coraz więcej swoich usług, aby ułatwić dostęp do nich. Jednym z głównych kryteriów wyboru dostawcy usług chmurowych będzie zapewnienie przez niego najlepszego poziomu ochrony, ale też łatwej dostępności zespołu inżynierów.

  1. Coraz więcej centrów danych

W związku ze zwiększonym popytem na usługi w chmurze jeszcze większego znaczenia nabierają parametry związane z ich kosztami i szybkością działania. – Dlatego jest prawdopodobne, że operatorzy dużych centrów danych oraz dostawcy usług kolokacji będą chcieli zapewnić sobie możliwość elastycznego zwiększania bazy użytkowników bez negatywnego wpływu na wydajność. Jeżeli odpowiednio się zabezpieczą, to z łatwością będą funkcjonować nawet w trudnych czasach. Duże znaczenie będzie odgrywała możliwość szybkiego wdrażania nowych zasobów obliczeniowych, prawdopodobnie wzrośnie więc zainteresowanie prefabrykowanymi centrami danych – podkreśla Bartłomiej Raab.

  1. Maksymalne wykorzystanie łączy telekomunikacyjnych w gospodarstwach domowych

Coraz więcej usług chmurowych będzie wdrażanych lokalnie, geograficznie jak najbliżej użytkowników, aby zapewnić maksymalną możliwą szybkość połączenia. Ogólnie wolumen danych przesyłanych w Internecie nie zmieni się, ale modyfikacji ulegnie charakterystyka tego ruchu. Spadnie ilość transferu danych generowanego przez biura, a zdecydowanie wzrośnie obciążenie domowych łączy internetowych. W wielu przypadkach zostaną one wykorzystane do maksimum, co przyczyni się do powstawania wąskich gardeł, jako że najczęściej ich przepustowość jest ograniczona. Będzie to także wyzwanie dla lokalnych węzłów sieciowych – będą one pracowały z niemal stuprocentową przepustowością, a więc pojawi się w nich konieczność efektywnego zarządzania zasilaniem oraz odprowadzaniem ciepła. Problemów w tym kontekście można spodziewać się szczególnie w okresie letnim.

Szczęściem w tym nieszczęściu jest jednak fakt, że ludzie są najlepiej przystosowującym się do nowych warunków gatunkiem. Obecnie jedynie tempo tych zmian jest wyzwaniem. Gdyby konieczność szybkiego przeniesienia środowisk biurowych do domu zaistniała 15 lat temu, bylibyśmy znacznie mniej przygotowani do zapewnienia ciągłości biznesowej, niezbędnej do przetrwania teraz i w przyszłości.

Źródło: Vertiv

Komentarzy (0)

Tags: , ,

Jak sieć 5G wpłynie na rozwój autonomicznych samochodów?

Dodany 20 czerwca 2019 przez admin

Według szacunków firmy Gartner do 2020 roku na drogach poruszać się będzie około 250 mln połączonych z siecią pojazdów. Może nie będą to jeszcze całkowicie samosterujące pojazdy z filmów fantastycznych, ale będą one wyposażone w łącza bezprzewodowe obsługujące część procesów zautomatyzowanego prowadzenia pojazdów, inforozrywkę i aplikacje zwiększające bezpieczeństwo ruchu. 

V2V czy V2X

Chociaż istnieją wątpliwości, czy pojazdy autonomiczne będą obecne w naszej przyszłości, to aktualnie jesteśmy świadkami ożywionej dyskusji na temat sposobu komunikacji pojazdów autonomicznych z otaczającą je infrastrukturą.

Niektórzy producenci samochodów, tacy jak Renault, Toyota i Hyundai, stawiają na model komunikacji „pojazd-pojazd” (V2V). Jest to technologia o niewielkim zasięgu, korzystająca z wyłącznego pasma do komunikacji pomiędzy samochodami. Jej zwolennicy twierdzą, że jest już dostępna, co może zapobiec opóźnieniu premiery pojazdów z sieciowymi funkcjami bezpieczeństwa.

Po drugiej stronie są firmy telekomunikacyjne i producenci samochodów, tacy jak Volkswagen i BMW. Ta grupa wspiera system telefonii mobilnej o dużym zasięgu, w którym samochody współużytkują pasmo z telefonami komórkowymi i innymi urządzeniami.

Firmy telekomunikacyjne są bardziej zainteresowane tym drugim systemem. Inwestycje w powstające dopiero sieci 5G wymagają olbrzymich nakładów inwestycyjnych i dlatego operatorzy muszą opracować strategię zapewniającą odpowiedni zwrot. Jednak zwolennikom wdrożenia sieci komórkowej o dalekim zasięgu nie chodzi jedynie o „zapełnienie sieci”. Aby zrozumieć tę koncepcję, należy zbadać praktyczne zagadnienia funkcjonowania połączonych pojazdów.

V2V umożliwia komunikację pomiędzy pojazdami, co zapewnia zmniejszenie odległości pomiędzy nimi na drodze i synchronizację działań w celu zapobiegania wypadkom. Jednak inni stawiają sobie o wiele ambitniejszy cel: możliwość komunikowania się pojazdów z pobliską infrastrukturą, a nawet pieszymi uczestnikami ruchu. To nowy wymiar automatyzacji, która zmniejszyłaby liczbę poszkodowanych i ofiar śmiertelnych w wypadkach drogowych. Pozwoliłaby również usprawnić płynność ruchu poprzez śledzenie sieci samochodowej i wyznaczanie najmniej zakorkowanych tras.

Taki model komunikacji określa się terminem „pojazd-otoczenie” (V2X). Funkcjonalność, która umożliwiłaby wdrożenie takiego rozwiązania, będzie zależeć od rozwoju mobilnych sieci 5G. Wymiana danych w modelu V2X będzie wolniejsza niż w V2V, ale za to bardziej uniwersalna przy tworzeniu systemu inteligentnych i bezpiecznych dróg.

Wyzwania dla telekomów

Firmy telekomunikacyjne muszą podjąć szybkie i zdecydowane działania, jeżeli chcą skorzystać z szansy, którą są zautomatyzowane pojazdy. Jednak nowe sposoby zastosowania 5G będą widoczne dopiero po wdrożeniu infrastruktury. Stąd istotna rola specjalistów ds. obiektów IT i centrum danych: firmy telekomunikacyjne będą potrzebować pomocy w tworzeniu szkieletu sieci połączonych pojazdów – mówi Bartłomiej Raab, Country Manager Poland & Baltics w Vertiv Poland

Jeśli chodzi o pojazdy połączone systemem V2X, to zarówno wydajność sieci i infrastruktury IT może dosłownie decydować o życiu. Dlatego firmy telekomunikacyjne, które chcą odgrywać rolę w tym ekosystemie, muszą wspierać infrastrukturę krytyczną, która umożliwi funkcjonowanie usług V2X.

Jak wskazują eksperci z firmy Vertiv, menedżerowie obiektów, którzy chcą wspierać tę ewolucje biznesową, powinni wziąć pod uwagę dwa ważne czynniki. Pierwszy z nich to obniżenie opóźnienia transmisji danych dzięki sieci 5G. System V2X obiecuje zautomatyzowany proces reagowania na sytuacje zagrożenia, a przez to ograniczenie liczby wypadków, rannych i zabitych. Jednak, jeżeli koordynacja sieci zawiedzie w kluczowym momencie, wtedy systemy te zostaną pozbawione głównej funkcji, a życie ludzkie będzie narażone na niebezpieczeństwo. Małe opóźnienie jest kluczowym argumentem przemawiającym za wdrożeniem sieci 5G. W tym celu firmy telekomunikacyjne muszą przenieść przetwarzanie danych bliżej infrastruktury drogowej. Można to osiągnąć za pomocą centrum danych funkcjonującym na brzegu sieci (edge computing).

Drugi dotyczy bezpieczeństwa połączonych samochodów. Każdy pojazd tego typu staje się punktem, przez który do sieci mogą przenikać zagrożenia. Dlatego floty połączonych samochodów muszą zostać zabezpieczone przed hakerami i złośliwym oprogramowaniem. W Europie stowarzyszenie European 5G Infrastructure Public Private Partnership zaleciło, aby firmy telekomunikacyjne zainwestowały w standaryzowane technologie bezpieczeństwa, jak podział sieci, mikrosegmentacja i centra nadzoru zwiększające ochronę przed zagrożeniami.

Trzeci obszar dotyczy gromadzenia i analiza danych z połączonych samochodów. Zdaniem Marka Fieldsa, Dyrektora Generalnego Forda, dzięki tym informacjom producenci będą mogli „zwiększyć zadowolenie klienta i stworzyć nowe usługi”. Natomiast lokalna administracja będzie mogła usprawniać ruch drogowy i podnosić bezpieczeństwo. Centra danych powinny więc zapewnić infrastrukturę, która zaspokoi zwiększone zapotrzebowanie na przetwarzanie i przechowywanie danych generowanych przez połączone samochody. Aby umożliwić prawidłową analizę danych, dokonywaną w większości w czasie rzeczywistym, każdy element centrum danych musi pracować optymalnie i zapewniać odpowiednią wydajność. Połączone pojazdy i sieć 5G stwarzają ogromne możliwości rynkowe dla operatorów telekomunikacyjnych, którzy poszukują nowych źródeł przychodów.

Źródło: Vertiv

Komentarzy (0)

Zdjęcia z naszego Flickr'a

Zobacz więcej zdjęć

POWIĄZANE STRONY

ELASTYCZNY WEB HOSTING