Technologia Archives - Polaris website https://polarisitgroup.com/pl/category/technologia-pl/ Polaris IT Group SA Fri, 22 Mar 2024 09:17:39 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.8.1 Grupa Polaris IT Group notuje w I kw. 2023 r. ponad 10 mln zł przychodów i 1,8 mln zł zysku netto https://polarisitgroup.com/pl/2023/05/17/grupa-polaris-it-group-notuje-w-i-kw-2023-r-ponad-10-mln-zl-przychodow-i-18-mln-zl-zysku-netto/ Wed, 17 May 2023 11:16:12 +0000 https://polarisitgroup.com/2023/05/17/grupa-polaris-it-group-notuje-w-i-kw-2023-r-ponad-10-mln-zl-przychodow-i-18-mln-zl-zysku-netto/ Jak poinformowała Polaris IT Group SA, spółka informatyczna notowana na rynku giełdowym NewConnect, skonsolidowane przychody ze sprzedaży Grupy Kapitałowej Polaris IT Group SA wyniosły na koniec pierwszego kwartału tego roku 10.104.858,73 zł, natomiast skonsolidowany zysk netto ukształtował się na poziomie 1.811.672,74 zł, co jak podkreślono w początkowej części komentarza wynikowego, biorąc pod uwagę wciąż trudne […]

The post Grupa Polaris IT Group notuje w I kw. 2023 r. ponad 10 mln zł przychodów i 1,8 mln zł zysku netto appeared first on Polaris website.

]]>
Jak poinformowała Polaris IT Group SA, spółka informatyczna notowana na rynku giełdowym NewConnect, skonsolidowane przychody ze sprzedaży Grupy Kapitałowej Polaris IT Group SA wyniosły na koniec pierwszego kwartału tego roku 10.104.858,73 zł, natomiast skonsolidowany zysk netto ukształtował się na poziomie 1.811.672,74 zł, co jak podkreślono w początkowej części komentarza wynikowego, biorąc pod uwagę wciąż trudne otoczenie rynkowe, pozwala z optymizmem patrzeć na kolejne kwartały tego roku.

„W pierwszym kwartale 2023 roku iSRV Zrt. [węgierska spółka zależna, wchodząca w struktury Grupy Kapitałowej Polaris IT Group SA – przyp. red.] osiągnęła zysk przed opodatkowaniem w wysokości 174 mln HUF przy przychodach na poziomie 823 mln HUF. Z tych przychodów 265 mln HUF pochodziło z obrotu licencjami, ale znaczna kwota pochodziła także ze sprzedaży systemu EDL (system edukacji online) i zbudowanego na nim rozwiązania, co stanowiło kolejne 173 mln HUF przychodów. Oprócz tego spółka zanotowała 195 mln HUF z indywidualnych wdrożeń i sprzedaży licencji FPGA, a 37 mln HUF z eksploatacji systemu. Ponadto, sprzedaż opracowanej przez iSRV licencji Enclosed Server przyniosła przychody w wysokości 125 mln HUF” – pokreślono aktywność biznesową kluczowej dla Grupy Polaris IT Group SA spółki operacyjnej w pierwszym kwartale tego roku.

„Spółka wykonała przegląd efektywności kosztów, w związku z czym od drugiego kwartału spodziewamy się oszczędności w kosztach operacyjnych. W zakresie badań i rozwoju spółka koncentrowała się głównie na poprawkach błędów, poza nimi nie poniesiono nowych wydatków na rozwój” – czytamy dalej.

„W 2023 roku sytuacja gospodarcza na Węgrzech nadal jest niezwykle trudna, co wpływa na spółkę zarówno bezpośrednio, jak i pośrednio. iSRV posiada dwa istniejące kontrakty konsorcjum, o łącznych ramach 450 mld HUF (z T-Systems i spółkami 4iG), z którymi wiążemy duże nadzieje. Jednak już teraz widzimy wyraźnie, że mogą się one rozpocząć tylko wtedy, gdy Węgry i UE osiągną porozumienie i Węgry otrzymają środki, na których opierają się te projekty” – przybliżono aktualne uwarunkowania rynkowe.

„Jak podkreśliliśmy w raporcie rocznym za rok 2022, stale poszukujemy obszarów, które dają szanse na rentowne działanie firmy nawet w obecnej sytuacji. W najbliższym czasie skoncentrujemy się na takich trzech obszarach: rozwoju oprogramowania w sektorze energetycznym, świadczeniu usług telemedycznych opartych na gromadzeniu danych telemetrycznych i AI w sektorze opieki zdrowotnej, a także sprzedaży urządzeń z tym związanych oraz na wdrażaniu algorytmów optymalizacyjnych i rozwiązań opartych na AI w sektorze logistycznym, mających na celu skrócenie i optymalizację czasu transportu produktów przemysłowych koleją. Aktywnie przygotowujemy projekty we wszystkich trzech obszarach i jesteśmy przekonani, że już wkrótce przyniosą one kolejne sukcesy dla iSRV Zrt, a tym samym również dla Grupy Polaris IT Group SA” – podsumowano aktualne cele operacyjne i perspektywy biznesowe Grupy Polaris IT Group SA.

 

O Polaris IT Group SA:

Polaris IT Group SA działa jako dostawca usług IT i firma konsultingowa w obszarze technologii informatycznych.

W lipcu 2020 roku utworzono Grupę Kapitałową Polaris IT Group SA, gdy Polaris IT Group SA objęło 100% udziałów w kapitale zakładowym IAI (Industrial Artificial Intelligence Kft.), która to spółka posiada 100% akcji innego węgierskiego podmiotu ISRV Zrt. W chwili obecnej IAI nie prowadzi działalności generującej przychody ze sprzedaży, natomiast ISRV jest spółką prowadzącą działalność operacyjną na największą skalę w ramach Grupy Kapitałowej Polaris IT Group SA.

Główne linie biznesowe Grupy Kapitałowej Polaris IT Group SA to sztuczna inteligencja oraz rozwój sprzętu i oprogramowania komputerowego.

Polaris IT Group SA jest spółką notowaną na warszawskim rynku akcji NewConnect, prowadzonym przez Giełdę Papierów Wartościowych w Warszawie w ramach Alternatywnego Systemu Obrotu.

The post Grupa Polaris IT Group notuje w I kw. 2023 r. ponad 10 mln zł przychodów i 1,8 mln zł zysku netto appeared first on Polaris website.

]]>
Polaris IT Group stawia na rozwój sprzętu i oprogramowania w oparciu o AI https://polarisitgroup.com/pl/2023/04/21/polaris-it-group-focuses-on-the-development-of-hardware-and-software-based-on-ai/ Fri, 21 Apr 2023 15:49:55 +0000 https://polarisitgroup.com/2023/04/21/polaris-it-group-focuses-on-the-development-of-hardware-and-software-based-on-ai/ Profil biznesowy Polaris IT Group SA to przedstawiciel sektora IT oraz spółka giełdowa notowana na rynku alternatywnym NewConnect (ticker: PIT), prowadzonym przez warszawską Giełdę Papierów Wartościowych. Spółka jest dostawcą usług IT i firmą konsultingową w obszarze technologii informatycznych. Oferuje indywidualnie zaprojektowane i innowacyjne rozwiązania w dziedzinie technologii bezpieczeństwa, sztucznej inteligencji, identyfikacji biometrycznej oraz rozpoznawania i […]

The post Polaris IT Group stawia na rozwój sprzętu i oprogramowania w oparciu o AI appeared first on Polaris website.

]]>
Profil biznesowy

Polaris IT Group SA to przedstawiciel sektora IT oraz spółka giełdowa notowana na rynku alternatywnym NewConnect (ticker: PIT), prowadzonym przez warszawską Giełdę Papierów Wartościowych.

Spółka jest dostawcą usług IT i firmą konsultingową w obszarze technologii informatycznych. Oferuje indywidualnie zaprojektowane i innowacyjne rozwiązania w dziedzinie technologii bezpieczeństwa, sztucznej inteligencji, identyfikacji biometrycznej oraz rozpoznawania i analizy obrazów, streamingu i edukacji online, jak również opieki zdrowotnej.

W lipcu 2020 roku utworzono Grupę Kapitałową Polaris IT Group SA, gdy Polaris IT Group SA objęło 100% udziałów w kapitale zakładowym IAI (Industrial Artificial Intelligence Kft.), która to spółka posiada 100% akcji innego węgierskiego podmiotu ISRV Zrt. W chwili obecnej IAI nie prowadzi działalności generującej przychody ze sprzedaży, natomiast ISRV jest spółką prowadzącą działalność operacyjną na największą skalę w ramach Grupy Kapitałowej Polaris IT Group SA.

Główne linie biznesowe Grupy Kapitałowej Polaris IT Group SA to sztuczna inteligencja oraz rozwój sprzętu i oprogramowania komputerowego.

Większościowym akcjonariuszem Polaris IT Group SA jest, kontrolowana przez Prezesa Zarządu Gábor Kósa, brytyjska spółka Bit Pyrite Ltd, z siedzibą w Londynie, posiadająca większościowy pakiet 66,24% akcji, natomiast w wolnym obrocie („free float”) znajduje się obecnie 33,76% akcji spółki.

Rynek usług i technologii IT

Należy wspomnieć, że Grupa Kapitałowa Polaris IT Group SA posiada wieloletnie kontakty biznesowe w Chinach i na Dalekim Wschodzie, gdzie nabywane są m.in. spersonalizowane notebooki, tablety, serwery i urządzenia czujnikowe – najczęściej bezpośrednio od producentów. Jednocześnie sam status partnera premium azjatyckich podmiotów pozwala także dostarczać własnym klientom spersonalizowane i indywidualnie skonfigurowane urządzenia IT, wyposażone w fabrycznie przeinstalowane oprogramowanie oraz priorytetowe wsparcie producenta.

Wspomniane możliwości zakupowe i relacje handlowe, przy własnych możliwościach rozwoju, powinny przełożyć się w przyszłości na większy potencjał Grupy Kapitałowej Polaris IT Group SA do generowania przychodów, wychodząc tym samym naprzeciw widocznym oczekiwaniom i zapotrzebowaniu rynkowemu w obszarze usług i technologii IT.

Wyniki finansowe i wskaźniki wyceny

Grupa Polaris IT Group SA zakończyła rok 2022 z przychodami blisko 45 mln zł i zyskiem netto na poziomie ok. 3 mln zł. Tylko na poziomie jednostkowym Polaris IT Group SA zanotowało na koniec ubiegłego roku przychody ze sprzedaży w wysokości ok. 7 mln zł wobec wcześniejszych niespełna 4 mln zł, co oznacza wzrost o prawie 75% w ujęciu rok do roku.

Jak podkreśla Zarząd Polaris IT Group SA w ostatnim raporcie okresowym Grupa Polaris IT Group SA cały czas pracuje nad przygotowaniem dużych projektów, które rozpoczęły się już po 2022 roku i które, na co liczy spółka, wygenerują znaczący wzrost skonsolidowanych wyników finansowych już w tym roku, a wpływ na taką sytuację będą miały np. kontrakty z sektorem publicznym, o których przyznanie stara się węgierska spółka zależna iSRV Zrt. w ramach swojego udziału w konsorcjach firm.

Obecna giełdowa kapitalizacja Polaris IT Group SA wynosi nieznacznie ponad 47,5 mln zł, przy jednocześnie stosunkowo niskich i atrakcyjnych, w odniesieniu do innych podmiotów z branży informatycznej, wskaźnikach wyceny C/WK (0,80) oraz C/Z (16,00).

Cele operacyjne i strategiczne

Na poziomie operacyjnym Grupa Polaris IT Group SA nastawia się na kontynuację dotychczasowych działań w obszarze rozwoju systemów oprogramowania, rozwoju rozwiązań szyfrujących i sprzętu, rozwoju badań nad sztuczną inteligencją, handlu sprzętem i oprogramowaniem, handlu sprzętem i oprogramowaniem związanym z rynkiem opieki zdrowotnej oraz świadczeniu usług związanych z tym sprzętem i oprogramowaniem, jak również na rozwoju własnych rozwiązań edukacyjnych online.

Jednocześnie Grupa Polaris IT Group SA aktywnie spogląda także w kierunku nowych obszarów biznesowych, gdzie dostrzega możliwość wykorzystania własnych umiejętności w zakresie rozwoju oprogramowania z wykorzystaniem technologii opartych na blockchain i rozwiązaniach AI. Jednym z nich jest logistyka, gdzie zamierza rozwijać algorytmy informatyczne i logistyczne dla transportu towarowego. Drugi to energetyka, gdzie planuje przyczynić się do wdrożenia efektywnego sterowania wysokowydajnymi urządzeniami do magazynowania energii – w skali przemysłowej.

Celem strategicznym Polaris IT Group SA pozostaje niezmiennie zaspokojenie każdej unikalnej potrzeby w obszarze IT dzięki zastosowaniu innowacyjnych rozwiązań opartych na sztucznej inteligencji oraz kompleksowym rozwoju sprzętu i oprogramowania. W tym celu spółka stale poszerza swoją działalność o projekty oparte na własnych produktach i usługach, wytwarzanych przez węgierską spółkę zależną iSRV Zrt.

W dalszej perspektywie jedną z kluczowych strategicznych wizji jest ekspansja Grupy Kapitałowej Polaris IT Group SA o kolejne podmioty z branży, które uzupełnią jej profil biznesowy i wzmocnią pozycję rynkową, szczególnie na gruncie specjalistycznych kompetencji i wiedzy lub nowych możliwości rozwoju biznesowego.

Zamieszczane treści mają charakter wyłącznie informacyjno-edukacyjny i są zawsze wyrazem osobistych poglądów ich autora. Nie stanowią one ani w części ani w całości „rekomendacji” w rozumieniu przepisów Rozporządzenia Ministra Finansów z dnia 19 października 2005 r. w sprawie informacji stanowiących rekomendacje dotyczące instrumentów finansowych, lub ich emitentów (Dz.U. z 2005 r. Nr 206, poz. 1715). Autor nie ponosi jakiejkolwiek odpowiedzialności za decyzje inwestycyjne dokonywane na podstawie publikowanych treści.

The post Polaris IT Group stawia na rozwój sprzętu i oprogramowania w oparciu o AI appeared first on Polaris website.

]]>
Opieka zdrowotna 2.0: jak nauka o danych wspiera usługi medyczne https://polarisitgroup.com/pl/2023/04/03/opieka-zdrowotna-2-0-jak-nauka-o-danych-wspiera-uslugi-medyczne/ Mon, 03 Apr 2023 09:43:27 +0000 https://polarisitgroup.com/2023/04/03/opieka-zdrowotna-2-0-jak-nauka-o-danych-wspiera-uslugi-medyczne/ W poprzednich postach mówiliśmy o tym, dlaczego opieka nad osobami starszymi staje się obecnie najwyższym priorytetem w każdym społeczeństwie, oraz o tym jak sztuczna inteligencja (AI) i nauka o danych (Data Science) mogą być wykorzystane, aby pomóc w tworzeniu nowych rozwiązań w szeroko rozumianej opiece zdrowotnej. Aby zapewnić spersonalizowaną opiekę nad starszą osobą, konieczne jest […]

The post Opieka zdrowotna 2.0: jak nauka o danych wspiera usługi medyczne appeared first on Polaris website.

]]>
W poprzednich postach mówiliśmy o tym, dlaczego opieka nad osobami starszymi staje się obecnie najwyższym priorytetem w każdym społeczeństwie, oraz o tym jak sztuczna inteligencja (AI) i nauka o danych (Data Science) mogą być wykorzystane, aby pomóc w tworzeniu nowych rozwiązań w szeroko rozumianej opiece zdrowotnej. Aby zapewnić spersonalizowaną opiekę nad starszą osobą, konieczne jest wspomniane już zdalne monitorowanie, ale nieostrożne korzystanie z takich rozwiązań może przynieść więcej szkody niż pożytku. Uczenie federacyjne (Federated Learning) jest jednym ze sposobów na rozwiązanie wyzwań jakie stoją przed nami w tej dziedznie (zapewnienia bezpiczeństwa danych, usprawnienie tworzenia rozbudowanych modeli). Bieżący post jest o tym, jak szeroko pojęty monitoring może być wykorzystywany w połączeniu z innymi źródłami informacji dla lepszego wsparcia na poziomie jednostki i społeczeństwa w zakresie usług medycznych.

Na początek przyznajmy, że jesteśmy ’nerdami: wszyscy kochamy statystyki (mam nadzieję, że Ty też!). A w opiece zdrowotnej mamy całą masę różnych statystyk, ciekawych danych i ich zestawień! To świetnie, ale statystyki są przydatne tylko wtedy, gdy podany jest kontekst. Kontekst jest określony w przestrzeni i czasie, więc potrzebujemy danych z pomiarów w całym wybranym, interesującym nas obszarze, w różnych okresach. Takie dane mogą służyć aktualizacji naszej wiedzy o tym, czym się opiekujemy (oraz naszych modeli, które pozwalają nam tą wiedzę wykorzystać w praktyce). Nie tak dawno temu wszyscy prawie codziennie oglądali infografiki i statystyki dotyczące epidemii COVID-19, które dawały nam aktualne informacje o sytuacji pandemicznej na całym świecie – jak na przykład strony: https://www.worldometers.info/coronavirus/ , https://ourworldindata.org/coronavirus czy https://coronavirus.jhu.edu/map.htmlDla wszystkich stało się wtedy oczywiste, że właściwe wykorzystanie nowoczesnych narzędzi cyfrowych (sprzętu, technik komunikacji, oprogramowania) może być kluczowe dla zarządzania w a takich wyjątkowych sytuacjach. W sytuacjach kryzysowych w jednym momencie rzucamy wszystko, co w danym momencie robimy, aby uzyskać obraz sytuacji, miarodajne odpowiedzi na najważniejsze pytania i móc podjąć szybkie właściwe decyzje. Dzięki częstym i dobrze zorganizowanym obserwacjom, magazynowaniu danych i odpowiedniemu modelowaniu można stwierdzić, kto jest bardziej zagrożony, gdzie w pierwszej kolejności powinna być wysłana pomoc medyczna, jak zreorganizować logistykę itp.

Na szczęście sytuacje kryzysowe nie są trwałe, ale w czasie pandemii nauczyliśmy się wiele o szybkim i skutecznym zbieraniu informacji i modelowaniu na wieką skalę, obejmujacą całe społeczeństwa! Ta zdobyta wiedza jest tym, czego potrzebujemy, gdy myślimy o wsparciu dużych społeczności: na przykład dzieci w odległych wioskach, starszych ludzi żyjących samotnie w domach, czy w ogóle o ludności na dużych obszarach bez odpowiedniej infrastruktury. Wymienione scenariusze opisują zupełnie inne uwarunkowania, a jednak w każdej z takich sytuacji mogą pomóc podobne narzędzia i usługi cyfrowe. Dodatkowo to, czego nauczymy się w jednej dziedzinie, może się także kiedyś przydać w innej!

Oto bardzo ciekawy raport na temat tego, jak cyfrowe rozwiązania dla ochrony zdrowia – tzw. cyforwe narzędzia zdrowotne (Digital Health Tools) mogą wzmocnić istniejące systemy opieki zdrowotnej w różnych regionach Afryki [1]. Choć regiony te różnią się pod względem rozwoju infrastruktury, poziomu wsparcia finansowego czy stopnia rozwinięcia systemów opieki zdrowotnej, wszystkie muszą zmierzyć się z pewnymi podobnymi wyzwaniami, takimi jak rozległe obszary pozbawione bezpiecznych środków transportu czy różnice kulturowe i językowe. Według raportu McKinsey cyfrowe narzędzia zdrowotne (Digital Health Tools) to: „produkty i usługi oparte na technologii przeznaczone dla pacjentów, pracowników służby zdrowia, społeczności, firm farmaceutycznych i biotechnologicznych, liderów zdrowia publicznego, organów regulacyjnych i płatników.” Autorzy raportu podzielili różne rozwiązania oparte na analizie danych (Data Science) i sztucznej inteligencji (AI) na sześć kategorii:

  • wirtualne interakcje: konsultacje na odległość, obsługa w nagłych przypadkach, wsparcie psychiczne
  • dane „bez papieru” („Paperless” data): wymiana informacji o stanie zdrowia, wystawianie recept w chmurze
  • samoopieka pacjenta: usługi, które wymagają aktywnego udziału klientów
  • samoobsługa pacjenta; umawianie wizyt itp.
  • systemy inteligencji decyzyjnej: modelowanie statystyczne, wspomaganie decyzji itp.
  • automatyzacja przepływu pracy: optymalizacja logistyki i zasobów, zarządzanie urządzeniami

Według szacunków McKinsey’a, wzrost wydajności lub oszczędności dzięki wprowadzeniu różnych cyfrowych narzędzi zdrowotnych może wynieść mniej więcej od 2 miliardów do 11 miliardów dolarów w RPA tylko do 2030 roku – co stanowi 6 do 15 procent całkowitych prognozowanych wydatków na opiekę zdrowotną! Indywidualny wkład najistotniejszych narzędzi i usług przedstawiono w poniższej tabeli:

Cyfrowe narzędzia zdrowotne

Scenariusz ostrożny

Scenariusz optymistyczny

Udział całkowitych oszczędności wynikających z przyjęcia technologii cyfrowych w ochronie zdrowia w RPA, 2030, % [1].

Oczywiście, juz teraz istnieje sporo narzędzi i usług będących kluczowymi częściami systemu opieki zdrowotnej lub związanych z działalnością ośrodków medycznych – na przykład w takich obszarach jak badania genetyczne, logistyka szpitalna czy tworzenie paneli informacyjnych (dashboard). Jednak wiele z nich jest przydatnych także w opiece nad osobami starszymi! Chociaż infrastruktura (taka jak transport publiczny, systemy drogowe, sieci komunikacyjne, itp.) jest znacznie lepsza np. w Polsce czy na Węgrzech, w porównaniu z podanym powyżej scenariuszami, to w rzeczywistości dostęp do niej jest dość ograniczony dla osób starszych. Istnieje więc bardzo silne podobieństwo między tymi scenariuszami jeżeli weźmiemy pod uwagę osoby starsze. Może się to wydać dość dużym przeskokiem logicznym, ale możemy założyć, że względny udział wymienionych usług i narzędzi byłby mniej więcej podobny, gdyby dotyczyły one sytuacji wykorzystania ich w opiece nad osobami starszymi. Teraz spójrzmy na te sprawy nieco głębiej i wybierzmy te technologie, które mają największy potencjał.

Wirtualne interakcje

Cóż, nie jest zaskoczeniem, że wirtualne interakcje między pacjentami a opiekunami mogą znacznie zwiększyć wydajność systemu opieki zdrowotnej, zwłaszcza gdy zasoby są ograniczone występują ograniczenia w mobilności. Dlatego jesteśmy głęboko zainteresowani rozwiązaniami w zakresie monitorowania i wirtualnego asystowania na dużą skalę (zobacz proszę nasze poprzednie posty!). Nawet w bardziej ostożnym scenariuszu usługi te dałyby około 39% ogólnego wzrostu efektywności.

Wymiana informacji – dane „bez papieru” („Paperless” data)

Zaskakujące jest jednak to, że najmniej skomplikowane ze wszystkich wymienionych narzędzi może mieć największy wpływ! Zasadniczo chodzi tu o posiadanie w pełni zdigitalizowanej elektronicznej dokumentacji zdrowotnej, którą można przeszukiwać, porównywać z innymi źródłami informacji lub integrować z nimi. Tu znów mamay podobną sytuację ajk w przypadku wirtualnych interakcji, tzn. w ramach bardziej ostrożnego scenariusza, ta grupa usług przyniosłaby bardzo duży, bo prawie 24% ogólnego wzrostu efektywności.

Biorąc pod uwagę fakt, że tworzenie i utrzymywanie dużych zbiorów danych jest o wiele tańsze niż którakolwiek z pozostałych metod w tabeli, wkład ten jest ogromny! Właściwie jest tak ogromny, że wszyscy powinni zacząć teraz skakać! No, może jednak nie. Chociaż technicznie integracja różnych źródeł danych jest wykonalna, to istnieje wiele przeszkód, które sprawiają, że zadanie to jest prawdziwym wyzwaniem.

Prawdopodobnie najważniejszy problem jest natury prawnej. Dokumentacja pacjentów, dane z monitoringu czy jakiekolwiek inne zgromadzone dane osobowe należą do „kategorii specjalnej” w rozumieniu Ogólnego Rozporządzenia o Ochronie Danych Osobowych, RODO (General Data Protection Regulation, GDPR) Unii Europejskiej lub „danych wrażliwych” w rozumieniu chińskiego prawa o ochronie informacji osobowych (PIPL). W USA California’s Consumer Privacy Act ( CCPA) stała się krajowym standardem. Na pierwszy rzut oka te regulacje są podobne, ale jednak istnieją znaczące różnice, które sprawiają, że opieka zdrowotna i opieka nad osobami starszymi oparta na danych jest staje się skomplikowana. Spośród wielu różnic podkreślmy tylko dwie wyróżniające się cechy. W porównaniu z chińskim PIPL [3], europejski GDPR podaje bardzo szczegółową listę typów danych i przypadków użycia dotyczących „kategorii specjalnej”, ale jej zakres jest węższy. W porównaniu z amerykańskim CCPA [2], GDPR wymaga wyraźnej zgody, co w niektórych przypadkach może uniemożliwić cały proces zbierania informacji.

Oczywiste jest, że niektóre dane z monitoringu nie mogą być zanonimizowane, ponieważ musimy dokładnie wiedzieć, czego potrzebuje pacjent i gdzie potrzebuje pomocy. Tak zwana „prywatność różnicowa” pozwala jednak na wyodrębnienie ogólnych informacji, które mogą być bezpiecznie zanonimizowane i nie są już uznawane za wrażliwe [4]. Prywatność różnicowa polega na tym, że dane są owszem zbieranie od użytkowników jednak bez informacji, od kogo pochodzą poszczególne dane.

Dane „bez papieru” – to jeszcze nie wszystko

Oczywiście wszystkie te liczby podane w cytowanym raporcie to tylko przybliżone szacunki, ponieważ ostatecznie wszystko zależy od wielu niewiadomych. Wskazują one jednak, jak ważne jest inwestowanie w przyszłość i rozpoczęcie transformacji jak najszybciej. Oczywiste jest też to, że gdy te narzędzia będą już uruchomione, to ich wspólny wpływ staje się coraz większy.

Ale dlaczego zatrzymywać się tutaj? Wymienione usługi i narzędzia są bezpośrednio związane z danymi lub usługami w sektorze opieki zdrowotnej. Po ustanowieniu bezpiecznych zasad współdzałania i połączenia tych usług z innymi możliwościami cyfrowych technologii (z możliwościami jake stwarzaja te technologie), pojawią się też nowe możliwości – dzięki włączeniu do całego systemu dodatkowych źródeł informacji.

Poniżej wymieniamy tylko kilka przykładowych pomysłów na wykorzystanie dodatkowych źródeł informacji – ale wierzymy, że możliwości są „nieograniczone”.

  • Dynamiczna kompleksowa ocena geriatryczna (CGA)
  • Prognoza pogody i mapy pyłków
  • Cyfrowe mapy wysokości (DEM)
  • Mapy odległości kontaktowych

Dynamiczna kompleksowa ocena geriatryczna (CGA)

Według [10] dynamiczna kompleksowa ocena geriatryczna (Dynamic comprehensive geriatric assessment, CGA) jest definiowana jako: „wielodyscyplinarny proces diagnostyczny i terapeutyczny, który identyfikuje medyczne, psychospołeczne i funkcjonalne ograniczenia starszej, słabszej osoby w celu opracowania skoordynowanego planu maksymalizacji ogólnego stanu zdrowia w okresie starzenia się”.

Mówiąc prościej, chodzi o zrozumienie potrzeb i ograniczeń jednostki oraz określenie najlepszej strategii utrzymania jej dobrego samopoczucia [5,6]. Jednak potrzeby i ograniczenia mogą się szybko zmienić z powodu pogorszenia stanu zdrowia lub niespodziewanych zmian w otaczającej infrastrukturze. Co na przykład, jeśli najbliższy sklep spożywczy zbankrutował? Co jeśli najbliższa linia autobusowa zostanie zamknięta z powodu prac budowlanych? Tego rodzaju informacje są z natury dynamiczne, a ich wykorzystanie i integracja z danymi dotyczącymi stanu zdrowia nie są proste. A przecież dzięki temu opieka nad osobami starszymi byłaby bardziej proaktywna i skuteczna!

Oczywiście systemy opieki społecznej mają ograniczone zasoby, więc muszą uwzględniać potrzeby wszystkich osób, które potrzebują wsparcia. Podobnie jak w przypadku analizy dostępności podstawowej opieki zdrowotnej [8], modelowanie geograficzne dostępności ośrodków opieki lub innych usług przez społeczność osób starszych również mogłoby być niezwykle pouczające. Mapy takie jak poniższa mogłyby być dynamicznie tworzone i aktualizowane dla każdego rodzaju usług (opieka zdrowotna, apteki, domy kultury, parki, itp.):

Dojazd transportem publicznym a różnica czasu przejścia do celu dla dwóch dużych miast w Finlandii [8].

Dzięki okresowej aktualizacji tych map dostępności moglibyśmy zauważyć regiony, które nagle stały się mniej dostępne, co wskazywałoby na konieczność podjęcia odpowiednich działań naprawczych.

Prognoza pogody i mapy pyłkowe

Oprócz zmian w infrastrukturze, naturalne zmiany, takie jak pogoda, mogą również powodować poważne problemy zdrowotne dla wielu osób. Na przykład ekstremalne temperatury niestety stają się coraz częstsze i konieczne stają się systemy wczesnego ostrzegania. Gwałtownym zmianom, czy zdarzeniom takim jak silny wiatr czy opady deszczu, trudno jest zapobiec. Ich wpływ zależy jednak od zagęszczenia osób starszych w danym regionie, a więc odpowiednie reakcje na zdarzenie mogą być przez systemy modelowane i definiowane z wyprzedzeniem.

Mówiąc o wietrze: pamiętajmy, że zanieczyszczenia powietrza (smog i pyłki) wpływają przede wszystkim na osoby starsze o pogorszonym stanie zdrowia. Usługi takie jak: https://www.breezometer.com/air-quality-map/ podają szczegółowe informacje o jakości powietrza dla ponad 60 krajów. W wielu krajach istnieją publiczne serwisy pokazujące aktualną sytuację, jak np. krajowa mapa pyłkowa w USA: https://www.pollen.com/map

Okresowe aktualizacje map dostępności, pozwalają szybko zidentyfikować, które regiony nagle stają się mniej dostępne, wskazują na konieczność podjęcia odpowiednich działań. Prognoza wiatru i mapy pyłkowe w połączeniu mogą być również wykorzystane do informowania ludzi o tym, czego mogą się spodziewać i jak zminimalizować ryzyko dla zdrowia. Co jest potrzebne? System wymiany informacji o stanie zdrowia, dane z monitoringu dotyczące aktualnej i spodziewanej lokalizacji osób oraz dynamiczne mapy pogodowe.

Cyfrowe mapy wysokościowe (DEM)

Podczas monitoringu na dużą skalę, możemy szybko zebrać statystyki, które dają nam ogólny wgląd w aktualny stan społeczeństwa. Jednak dodatkowa informacja geograficzna może także wiele wnieść do pełniejszego zrozumienia sytuacji. Na przykład, monitorując prędkość i czas chodzenia ludzi, możemy zauważyć kogoś, kto porusza się znacznie mniej niż przeciętnie. Jednak jeśli ta osoba mieszka w górskiej wiosce, gdzie poruszanie się wymaga większej ilości energii? Te informacje można uwzględnić, korzystając z map wysokościowych [11]. [11]

Mapy kontaktów

Mówiliśmy już o tym, że opieka nad osobami starszymi stanie się naszą wspólną odpowiedzialnością. Rodziny wraz z lokalnymi społecznościami (przy pomocy dostępnych zasobów) mogą udzielić odpowiedniego wsparcia osobom starszym. Kiedy tylko jest to możliwe, pracownicy socjalni zbierają informacje o podstawowych kontaktach (osoby kontaktowe, rodzina, ich miejsca zamieszkania, itd.). Posiadanie członków rodziny w pobliżu może uczynić usługi medyczne i opiekę znacznie bardziej efektywnymi oraz zapewnić lepsze wsparcie emocjonalne dla osoby starszej. Ważne jest również, aby wiedzieć, jak daleko mieszkają podstawowe osoby kontaktowe. Mapy kontaktów mogłyby być pomocne przy podejmowaniu decyzji o poproszeniu o pomoc lub zapewnieniu wsparcia opieki społecznej w przypadku nagłego wypadku lub np. planowanej wizyty u lekarza.

Wierzymy, że w przyszłości ta lista cyfrowych narzędzi służących opiece zdrowotnej nad osobami starszymi będzie się powiększać. Potrzebna jest tylko Twoja wyobraźnia i nasza wiedza techniczna, aby to osiągnąć.

Źródła:

[1] https://www.mckinsey.com/industries/healthcare/our-insights/how-digital-tools-could-boost-efficiency-in-african-health-systems?stcr=4B30665F36D948B8A3BDCB408E61012B&cid=other-eml-alt-mip-mck&hlkid=7215bd7fe4644bb992acfb6c78fee308&hctky=12152474&hdpid=aee9a458-cc27-4df7-8598-208978eee1cd#/

[2] https://www.cookieyes.com/blog/ccpa-vs-gdpr/

[3] https://www.china-briefing.com/news/pipl-vs-gdpr-key-differences-and-implications-for-compliance-in-china/

[4] https://www.gdprsummary.com/anonymization-and-gdpr/

[5] https://www.communityservices.act.gov.au/domestic-and-family-violence-support/what-is-act-government-doing/dfv-risk-assessment/key-components/risk-assessment

[6] https://core.ac.uk/download/pdf/236433397.pdf

[7] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6068710/

[8] https://www.sciencedirect.com/science/article/pii/S0143622821001995

[9] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6852049/

[10] https://www.uptodate.com/contents/comprehensive-geriatric-assessment

[11] https://omdena.com/blog/topographical-maps-deep-learning/

The post Opieka zdrowotna 2.0: jak nauka o danych wspiera usługi medyczne appeared first on Polaris website.

]]>
Nie wpuszczaj Wielkiego Brata! – Bezpieczeństwo i prywatność w opiece nad osobami starszymi https://polarisitgroup.com/pl/2023/03/10/nie-wpuszczaj-wielkiego-brata-bezpieczenstwo-i-prywatnosc-w-opiece-nad-osobami-starszymi/ Fri, 10 Mar 2023 11:49:08 +0000 https://polarisitgroup.com/2023/03/10/nie-wpuszczaj-wielkiego-brata-bezpieczenstwo-i-prywatnosc-w-opiece-nad-osobami-starszymi/ W naszym poprzednim poście mówiliśmy o tym, że opieka nad osobami starszymi staje się jednym z najbardziej podstawowych wyzwań na całym świecie. Jest oczywiste, że będziemy potrzebować wszystkich możliwości, jakie może zaoferować IT, czy to chmury obliczeniowej, urządzeń brzegowych (tzw. edge devices), urządzeń wbudowanych (tzw. embedded devices) czy sztucznej inteligencji (artificial intelligence, AI). Jednak nawet […]

The post Nie wpuszczaj Wielkiego Brata! – Bezpieczeństwo i prywatność w opiece nad osobami starszymi appeared first on Polaris website.

]]>
W naszym poprzednim poście mówiliśmy o tym, że opieka nad osobami starszymi staje się jednym z najbardziej podstawowych wyzwań na całym świecie. Jest oczywiste, że będziemy potrzebować wszystkich możliwości, jakie może zaoferować IT, czy to chmury obliczeniowej, urządzeń brzegowych (tzw. edge devices), urządzeń wbudowanych (tzw. embedded devices) czy sztucznej inteligencji (artificial intelligence, AI). Jednak nawet te najnowocześniejsze, najświeższe nowe technologie nie są pozbawione poważnych wad, które mogą poważnie zagrozić bezpieczeństwu ludzi. Niewłaściwie użyte mogą nieść ryzyko utraty prywatności, powstania szkód materialnych czy nawet stwarzać zagrożenie dla życia lub zdrowia. W przypadku osób starszych ryzyko będzie zazwyczaj jeszcze większe.

Wyobraźmy sobie taką sytuację. Myślisz, że twoja babcia ma się dobrze, ponieważ jej stan zdrowia i samopoczucie jest stale monitorowane. Odpowiednie systemy monitorują co się dzieje z wybraną osobą w domu (za pomocą kamer, lidarów itp.) oraz na zewnątrz (np. za pomocą urządzeń ubieralnych takich jak urządzenia elektroniczne, które nosi się na ciele np. opaski i smartwatche itp.). Ale wyobraź sobie co może się stać, gdy komunikacja tych urządzeń nie będzie odpowiednio zabezpieczona i ktoś obcy będzie mógł zobaczyć, kiedy np. mieszkanie jest puste, lub w jakich godzinach ktoś śpi. Możliwa jest też np. kradzież danych biometrycznych, które służą do identyfikacji osoby, a wtedy łatwym zadaniem staje się ukraść pieniądze czy popełnić oszustwo obciążając nim niewinną osobę. Wyobraź sobie jeszcze gorszą sytuację, gdy ktoś może zmieniać ustawienia urządzeń medycznych takich jak inteligentny rozrusznik serca lub pompa insulinowa. Takie wypadki są możliwe i już się zdarzały! shorturl.at/bkrX2).

Kwestie bezpieczeństwa i zapewnienia prywatności (bezpieczeństwo fizyczne i cyfrowe) są dobrym tematem na oddzielny post. Teraz jednak chcemy przedstawić Wam inny aspekt prywatności: uczenie się z wysoce wrażliwych danych. Jest to temat związany z tworzeniem rozproszonych modeli sztucznej inteligencji, które uczą się korzystając intensywnie z danych dostarczanych z wielu źródeł, np. z wielu telefonów komórkowych (często od osób, które nie zawsze zdają sobie z tego sprawę).

Jak już wcześniej pisaliśmy, dane są niezwykle ważne do tworzenia i trenowania modeli sztucznej inteligencji, dlatego nie powinno dziwić nas, że systemy monitorujące zdrowie i modelujące zachowania wymagają bardzo dużej ilości danych. Dane te mogą być bardzo różnorodne: bardzo proste jak np. liczba kontaktów lekarza z pacjentem w miesiącu lub tak złożone, jak zmienność rytmu serca sekunda po sekundzie. Często dane, zwłaszcza te skomplikowane, muszą być przetwarzane na zdalnych serwerach (w tzw. chmurze) czyli muszą być przesłane siecią poza urządzenie, które je pobierało. Problem polega na tym, że musimy się upewnić, że żadne informacje osobiste (tzw. „metadane”) nie zostaną wymieszane z danymi wysyłanymi dalej, potrzebnymi do trenowania modeli sztucznej inteligencji. Dlaczego tak jest? Otóż udostępnienie tak wrażliwych danych może stanowić bezpośrednie zagrożenie dla uczestników całego procesu (np. pacjentów). Co więcej, istnieje ryzyko pośrednie, ponieważ można zaszkodzić nawet tym, którzy nie dostarczają własnych danych do procesu trenowania modeli, ale są w pewien sposób związani z pacjentami.

W przypadku monitorowania zdrowia problem nie ogranicza się do fazy trenowania modelu. Ciągłe monitorowanie pacjentów wymaga ciągłego utrzymania kontaktu i wielokrotnego dostępu do wrażliwych danych. Dane te są następnie wykorzystywane do dostarczania prognoz, ale także niezbędnych informacji do ciągłej aktualizacji (tzw. fine tuning) modeli uczących się (tzw. scenariusz ciągłego uczenia się). Jak więc możemy zabezpieczyć przepływ wrażliwych danych? Jak możemy się upewnić, że wrażliwe dane osobowe nie dostaną się w niepowołane ręce?

Istnieje kilka podejść. Są na przykład rozwiązania, które albo próbują ukryć lub wymazać wrażliwe informacje (poprzez różnego rodzaju tzw. anonimizację danych), albo takie które polegają na szyfrowaniu kanału komunikacyjnego.

Jest jednak jeszcze jeden bardzo ciekawy pomysł, który może sprawić, że przesyłanie wrażliwych informacji w ogóle nie będzie konieczne. To podejście nazywa się federated learning (FL) co można przetłumaczyć jako uczenie federacyjne, czyli uczenie jednoczące wiedzę pochodzącą z różnych źródeł. Zobaczmy, o co w tym wszystkim chodzi.

Federated Learning (FL)

Według Wikipedii: „Uczenie federacyjne to technika uczenia maszynowego, która trenuje model wykorzystując dane przechowywane w wielu zdecentralizowanych urządzeniach brzegowych lub serwerach przechowujących lokalne próbki danych, bez ich przesyłania czy wymiany. Uczenie federacyjne umożliwia wielu podmiotom budowanie wspólnego, wydajnego modelu uczenia maszynowego bez współdzielenia danych, co pozwala na rozwiązanie krytycznych kwestii cyberbezpieczeństwa, takich jak prywatność i bezpieczeństwo danych, prawa dostępu do danych i dostęp do danych heterogenicznych. Jego zastosowania obejmują wiele branż, w tym obronność, telekomunikację, IoT, farmację.

Termin ten został wprowadzony przez firmę Google jeszcze w 2017 roku. (https://arxiv.org/abs/1602.05629v3)

Źródło: https://blog.nimbleedge.ai/federated-learning-101/

Przyjrzyjmy się jednak dokładniej tej złożonej definicji. Pierwszą interesującą technologią jest uczenie rozproszone.. Aby uzupełnić naszą wiedzę, porozmawiajmy trochę o uczeniu maszynowym (machine learning, ML), w szczególności o uczeniu nadzorowanym. W przypadku tego rodzaju uczenia zadanie polega na nauce kojarzenia tzw. etykiet (labels) z danymi. Te algorytmy uczenia maszynowego uczą się odpowiednich skojarzeń (czyli przypisania etykiety do analizowanych danych) poprzez przyrostowe dostrajanie bardzo wielu parametrów, które definiują łańcuch przekształceń tworzących algorytm. Przykładem są choćby dzisiejsze głębokie sieci neuronowe. W ich przypadku mówimy o milionach lub miliardach parametrów! To wyjaśnia, dlaczego proces trenowania modelu (w tym wypadku opartego na sieci neuronowej) jest tak żmudny w większości przypadków. Jeśli jednak kilka maszyn może równolegle pracować na różnych ‘porcjach’ danych, to trenowanie modelu staje się znacznie szybsze, o ile oczywiście wytrenowane fragmenty modelu są odpowiednio połączone w jedno rozwiązanie, w jeden główny model. Szybkość, decentralizacja to jedna z zalet. Drugą, nie mniej ważną jest ochrona prywatności. Idea polega na zminimalizowaniu wymiany danych pomiędzy klientami (czyli urządzeniami, która mogą trenować model, a właściwie jego fragment, na lokalnych danych) a serwerem (urządzeniem, które agreguje cząstkowe modele, lokalne aktualizacje modeli, organizuje wymianę parametrów, ale nie ma dostępu do lokalnych danych trenujących u klientów). Ta konkretna cecha, jest na tyle ważną zaletą, że czyni uczenie federacyjne (FL) centralną częścią wszystkich aplikacji AI w przemyśle i biznesie: Google, IBM, Intel, Baidu czy Nvidia opracowały swoje własne frameworki FL klasy korporacyjnej! ( shorturl.at/dgiy7)!

Oryginalny pomysł opierał się na założeniu, że urządzenia brzegowe (takie jak smartfony) mogą zarówno zbierać, jak i przetwarzać dane lokalnie. Z kolei, jeśli modele mogą zmieścić się w pamięci telefonu, to wystarczy wymienić lokalne aktualizacje modelu z centralnym modelem. Koncepcja ta nosi nazwę cross-device FL. Spersonalizowany texting, taki jak np. Gboard, wykorzystuje to podejście.

Cóż, pisanie tekstów na telefonach komórkowych jest w porządku, ale pomiar cukru we krwi? W tym przypadku możliwy inny realny scenariusz. Załóżmy, że już podzieliłeś się swoimi danymi medycznymi z lekarzem, tak jak wszyscy inni pacjenci. Jest to normalna procedura w każdym ośrodku zdrowia. Z kolei ośrodek zdrowia może dostroić własny model, wykorzystując wszystkie dostępne dane swoich pacjentów. Dalej: różne ośrodki zdrowia mogą wymieniać parametry modelu bez narażania wrażliwych danych swoich pacjentów. Takie podejście nazywa się cross-silo FL.

Zobacz na poniższy rysunek. W tradycyjnym podejściu dane zazwyczaj są zbierane i agregowane w różnych lokalizacjach, a jednostka centralna trenuje model przy użyciu wszystkich zebranych danych, czyli wymaga, aby te dane jej wcześniej dostarczyć. Ponieważ trzeba je jakoś do niej przesłać, to takie rozwiązanie zdecydowanie powinno zapalić nam czerwoną lampkę, ponieważ wrażliwe dane medyczne podczas procesu przesyłania nie są bezpieczne. Ale podejście cross-silo FL przychodzi na ratunek! Prywatność jest zachowana, dobra robota!

Źródło: https://openfl.readthedocs.io/en/latest/overview.html

Wyraźnie widać, że podejścia cross-device FL i cross-silo FL definiują skalowalność rozwiązania uczenia federacyjnego (FL). W ciągu ostatnich kilku lat opracowano i opublikowano wiele nowych pomysłów i obecnie przyjmuje się, że istnieje sześć czynników, które są potrzebne do rozróżnienia poszczególnych rozwiązań. Przedstawiono je na poniższym rysunku.

Źródło: https://arxiv.org/pdf/1907.09693.pdf

Podział danych (Data partitioning) dotyczy sposobu traktowania uczestników procesu współtworzenia modelu oraz ich wybranych cech (rekordów danych) w różnych modelach lokalnych. Podczas gdy pierwotny pomysł zakładał, że każdy węzeł kliencki ma taką samą reprezentację uczestników, istnieją scenariusze oparte na bardziej rzeczywistych uwarunkowaniach, w których dane są partycjonowane przez zestawy cech, a nie przez identyfikator użytkownika. Na przykład bank i firma ubezpieczeniowa mogą mieć dostęp do różnych danych na temat tego samego użytkownika, a mimo to mogą wzajemnie ulepszać swoje modele.

Zastosowany model uczenia maszynowego (Machine Learning Model). Chodzi tu o podstawowy model jaki został zastosowany w uczeniu federacyjnym (FL). Im bardziej złożony jest model, tym bardziej potrzebna jest ciągła wymiana uaktualnień tego modelu. W odniesieniu do uczenia federacyjnego (FL), najważniejszym pytaniem jest, jak agregować lokalne aktualizacje pamiętając cały czas o niezawodności komunikacji i jej przepustowości.

Mechanizm prywatności (Privacy Mechanism) jest kluczowym elementem frameworków uczenia federacyjnego (FL). Podstawową ideą jest unikanie wycieku informacji pomiędzy klientami. Zróżnicowana prywatność (czyli oddzielenie informacji specyficznych dla użytkownika od ogólnie istotnych) oraz kryptografia to dwa często stosowane podejścia, ale jest to dziedzina stale rozwijająca się.

Architektura komunikacyjna (Communication Architecture). Oryginalny pomysł sugerował precyzyjnie zaplanowane podejście do procesu trenowania modelu, gdzie centralny serwer przechowuje zagregowany model, który jest następnie kopiowany w lokalnych jednostkach. Nowsze rozwiązania rezygnują z centralizacji i proponują różne zdecentralizowane mechanizmy aktualizacji. W tych rozwiązaniach węzły klienckie komunikują się z kilkoma innymi równorzędnymi jednostkami i istnieje określona polityka propagacji aktualizacji modelu.

Mówiliśmy już o skalowaniu (Scale of Federation), kiedy wspomnieliśmy mechanizmy cross-device FL i cross-silo FL. Ostatni punkt (Motivation of Federation) dotyczy czynników motywujących do stosowania rozwiązań FL. W niektórych przypadkach to rygorystyczne przepisy zmuszają nas do zastosowania FL. Weźmy na przykład pod uwagę regulację GDPR w Europie, CCPA w USA czy PIPL w Chinach. W innych przypadkach to np. koszty czy zwiększona niezawodność mogą być głównymi siłami motywującymi.

Jeśli zastanawiasz się, dlaczego mamy tak wiele czynników do sprawdzenia, pomyśl o całkowicie różnych wyzwaniach w handlu elektronicznym (spersonalizowane reklamy), finansach (wykrywanie oszustw) lub opiece zdrowotnej (zdalna diagnostyka, itp.). Różne wymagania wymagają różnych rozwiązań. (https://www.nature.com/articles/s41746-020-00323-1).

Jakie są więc główne wyzwania, którym mogą sprostać rozwiązania oparte na uczeniu federacyjnym (FL)?

Skuteczność komunikacji

Aktualizacja dużych modeli wymaga wysyłania informacji o dużej objętości. Innym problemem jest ograniczona przepustowość (bandwidth): gdy duża liczba klientów próbuje wysłać dane w tym samym czasie, wielu z nich się to nie uda. Rozwiązanie pierwszego problemu polega na zastosowaniu pewnej formy kompresji, natomiast drugi można rozwiązać poprzez wprowadzenie sieci zdecentralizowanych (peer2peer, gossip), w których aktualizacje są wymieniane lokalnie. Jedno z przykładowych rozwiązań zostało przedstawione na rysunku poniżej.

Źródło: https://arxiv.org/pdf/1905.06731.pdf

Prywatność i ochrona danych

Podczas gdy surowe dane źródłowe pozostają tam, gdzie zostały wygenerowane, aktualizacje modelu mogą zostać zaatakowane i ujawnione mogą zostać prywatne informacje. Niektóre rozwiązania są zbudowane wokół tzw. prywatności różnicowej, gdzie tylko statystyczne, ogólne dane są wyliczane i wykorzystywane do szkolenia modelu (https://privacytools.seas.harvard.edu/differential-privacy). Innym ciekawym pomysłem jest wykonywanie obliczeń tylko na zaszyfrowanych danych (tzw. szyfrowanie homomorficzne dla tych, którzy lubią naukowe terminy). Jeszcze inny pomysł idzie w przeciwnym kierunku: rozłóżmy wrażliwe dane na wielu właścicieli danych, ale obliczenia mogą być wykonywane tylko we współpracy. Ciekawe, prawda? https://privacytools.seas.harvard.edu/differential-privacy).
Another interesting idea is to perform computation on encrypted data only (“homomorphic encryption” for those who like scientific terms).
Yet another idea goes to the opposite direction: let us spread the sensitive data across many data owners, but computations can only be done in a collaborative fashion.
Cool, isn’t it?

Różnorodność sprzętu

W przypadku naprawdę dużych systemów uczenia federacyjnego (FL) węzły są najprawdopodobniej dość zróżnicowane pod względem: pojemności pamięci masowej, mocy obliczeniowej i przepustowości komunikacji. Często tylko część z nich uczestniczy w aktualizacji modelu w danym czasie, co skutkuje tym, że trenowanie modelu jest obciążone (biased). Rozwiązanie? Może być nim asynchroniczna komunikacja, próbkowanie aktywnych urządzeń i zwiększona odporność na błędy.

Dane złej jakości

Klienci mogą otrzymać różne dane pod względem jakości (zaszumione, brakujące informacje, itp.) i właściwości statystycznych (różnice rozkładów). Jest to duży problem, który nie jest łatwy do naprawienia, a często nawet do wykrycia. Co gorsza, niektóre węzły wraz z ich lokalnymi modelami mogą zostać skompromitowane, aby umożliwić atak typu „model poisoning” ( (https://proceedings.mlr.press/v108/bagdasaryan20a.html) Dostarczenie specjalnie spreparowanych danych, które są wykorzystane do lokalnych aktualizacji modeli powoduje stopniowe „przeciąganie” zagregowanego modelu w kierunku niepożądanego stanu, powodując jego błędne działanie i narażają na szkody wynikające z błędnych predykcji. To tak jakby uczyć kogoś podając mu fałszywe informacje o świecie.

Jeśli doczytałeś nasze wprowadzenie do tej ciekawej tematyki aż do tego miejsca, to prawdopodobnie podzielasz nasz entuzjazm dla uczenia federacyjnego (FL). Jeśli jesteś gotów „pobrudzić sobie ręce” i samodzielnie przetestować te rozwiązania, oto kilka frameworków FL o otwartym kodzie źródłowym, którymi możesz się pobawić:

Jeżeli masz jakieś pytania, interesujące pomysły lub po prostu chciałbyś porozmawiać na temat uczenia federacyjnego, napisz do nas!

The post Nie wpuszczaj Wielkiego Brata! – Bezpieczeństwo i prywatność w opiece nad osobami starszymi appeared first on Polaris website.

]]>
Bądź zdrowy i silny, czyli jak sztuczna inteligencja może pomóc w opiece nad osobami starszymi https://polarisitgroup.com/pl/2023/02/23/badz-zdrowy-i-silny-czyli-jak-sztuczna-inteligencja-moze-pomoc-w-opiece-nad-osobami-starszymi/ Thu, 23 Feb 2023 09:18:23 +0000 https://polarisitgroup.com/2023/02/23/badz-zdrowy-i-silny-czyli-jak-sztuczna-inteligencja-moze-pomoc-w-opiece-nad-osobami-starszymi/ W tym oraz w dwóch najbliższych postach będziemy mówić o opiece nad osobami starszymi. Można by zadać pytanie: co ma ona wspólnego z technologiami najnowszej generacji? Starzenie się społeczeństw jest obecnie jednym z najbardziej istotnych i pilnych problemów, które dotykają wielu społeczeństw na całym świecie, dlatego zastosowanie nowych technologii, w tym sztucznej inteligencji (ang. Artificial […]

The post Bądź zdrowy i silny, czyli jak sztuczna inteligencja może pomóc w opiece nad osobami starszymi appeared first on Polaris website.

]]>
W tym oraz w dwóch najbliższych postach będziemy mówić o opiece nad osobami starszymi.

Można by zadać pytanie: co ma ona wspólnego z technologiami najnowszej generacji? Starzenie się społeczeństw jest obecnie jednym z najbardziej istotnych i pilnych problemów, które dotykają wielu społeczeństw na całym świecie, dlatego zastosowanie nowych technologii, w tym sztucznej inteligencji (ang. Artificial Intelligence, AI) może być w tej sytuacji jednym z dostępnych rozwiązań. Możliwości jakie stwarzają metody sztucznej inteligencji oparte na analizie danych mogą okazać się bardzo przydatne i cenne.

W niniejszym tekście naszym celem jest pokazanie zarówno wyjątkowego znaczenia opieki nad osobami starszymi w nowoczesnych społeczeństwach jak i złożoności tego zadania. Następny tekst będzie natomiast opisywał wybrane obszary zastosowań, w których nowoczesne metody analizy danych (ang. Data Science, DS) wykorzystująca metody uczenia maszynowego (ang. Machine Learning, ML) jak i sama sztuczna inteligencja (AI) mogą być naszą tajną bronią. Z kolei w ostatnim tekście podejdziemy do opisywanych spraw w sposób bardziej techniczny i opowiemy o niektórych ciekawych pomysłach i technologiach, które pozwolą na efektywne wykorzystanie sztucznej inteligencji w przyszłości.

Jednym z wyzwań stojących przed współczesnym światem jest problem starzejącej się populacji. To, że problem ten dotyczy tylko krajów wysoko rozwiniętych jest błędnym przekonaniem. Jest to bowiem problem, z którym boryka się większość państw na świecie, a problem ten będzie tylko narastała w kolejnych latach.

Zajrzyjmy najpierw do materiałów OECD (Organisation for Economic Co-operation and Development) [1].

Poniższy wykres ukazuje trendy jakie można zaobserwować obserwując zjawisko starzenia się społeczeństw na całym świecie. Widzimy tu bieżące trendy oraz predykcje dla wszystkich kontynentów:

Źródło: ENSZ (2017) World Population Prospects: the 2017 Revision.

Ciekawe statystyki dotyczące starzenia się społeczeństwa podaje także WHO (World Health Organization) [2]. Przyjrzyjmy się wybranym prognozom na następne lata:

  • W latach 2015-2050 odsetek ludności świata powyżej 60 lat wzrośnie z 12% do 22% – liczba osób starszych wzrośnie prawie dwukrotnie.
  • Do 2020 roku liczba osób starszych – w wieku 60 lat i więcej – będzie większa niż liczba dzieci poniżej 5 lat.
  • W 2050 roku 80% osób starszych będzie żyło w krajach o niskich i średnich dochodach.

Wszyscy musimy więc zastanowić się, co zrobić, aby odciążyć nasze systemy opieki zdrowotnej i nasze społeczeństwa w związku z tą nadchodzącą zmianą demograficzną prognozowaną przez znane światowe instytucje zajmujące się zdrowiem na świecie.

Aby zobaczyć już teraz jak może wyglądać przeszłość, spójrzmy na samą tylko Japonię. Jest ona domem dla najstarszego społeczeństwa. Według [4] prognozy dla Japonii nie są zbyt optymistyczne:

  • 2020: Połowa populacji kobiet będzie miała więcej niż 50 lat.
  • 2021: Wielu pracowników będzie musiało porzucić pracę z powodu opieki nad rodziną.
  • 2024: 33% populacji będzie miała więcej niż 65 lat.
  • 2025: Kurczenie się populacji rozpocznie się nawet w Tokio.
  • 2026: Ponad 7 mln osób z demencją.
  • 2027: Będzie zbyt mało krwi potrzebnej do transfuzji.
  • 2030: Wielkie domy towarowe, banki i domy spokojnej starości zamkną swoje oddziały w mniejszych miastach.
  • 2035: 33% populacji mężczyzn i 20% populacji kobiet będzie żyć i umierać samotnie.
  • 2039: Poważny brak krematoriów.
  • 2040: Połowa rządów prowincji zniknie.

Nie dziwi więc fakt, że Japonia jest jednym z pionierów w zakresie technologii informacyjnych i komunikacyjnych (ang. Information and communications technology, ICT), inteligentnych rozwiązań dla opieki zdrowotnej oraz rozwiązań przeznaczonych dla wspomagania opieki nad osobami starszymi. Ciekawym przykładem zastosowań nowych technologii, wynikającym do pewnego stopnia z konfliktów kulturowych [5] jest to, że Japończycy jako pierwsi zastosowali roboty usługowe w szpitalach i innych instytutach, zamiast zatrudniać zagranicznych pracowników.

Źródło: https://foreignpolicy.com/2017/03/01/japan-prefers-robot-bears-to-foreign-nurses/

Jest to jedno z wielu przykładowych zastosowań. Jednak zanim zaczniemy mówić o tym, jak sztuczna inteligencja „zbawi świat” – tak, to lekka przesada – zobaczmy jakie są najbardziej prawdopodobne konsekwencje i jakie można przewidzieć zmiany w infrastrukturze, polityce i w sferze usług w związku ze starzeniem się społeczeństw.

Stale rosnący odsetek osób, które mogą potrzebować dodatkowej pomocy w wykonywaniu różnych codziennych czynności, spowoduje przesunięcie punktu ciężkości w kształtowaniu polityki i priorytetów społecznych. Po pierwsze, osoby starsze pozostaną nadal cennymi konsumentami (ponieważ jest ich dużo, a ich liczba będzie wzrastać), jednak ich potrzeby różnią się od potrzeb osób młodszych i nadal aktywnych zawodowo. To spowoduje zmiany w infrastrukturze i otoczeniu biznesowym. Po drugie, w miarę zmniejszania się udziału procentowego ludności aktywnej zawodowo, nie będzie można zapewnić wszystkim starszym osobom opieki osobistej. Będzie występował niedobór wykwalifikowanej siły roboczej. Po trzecie, usługi – w szczególności opieka zdrowotna – będą droższe, ponieważ zmniejszy się udział aktywnych płatników a zwiększy liczba osób potrzebujących tych usług.

Brakująca siła robocza to problem bardziej ogólny, związany nie tylko ze zjawiskiem starzenia się społeczeństw. Optymalizacja procesów i automatyzacja wybranych czynności w pewnym stopniu mogą go złagodzić. Zazwyczaj w przypadku prac wykonywanych przez wykwalifikowaną siłę roboczą, zastosowanie automatyzacji, metod sztucznej inteligencji czy tzw. systemów uczących się może zapewnić pewną przewagę. Jednak nie zawsze łatwo jest takie metody zaimplementować. W przypadku takich czynności jak opieka nad osobami starszymi istnieją bardzo specyficzne wymagania, nie wszystko da się zoptymalizować i zautomatyzować. To stanowi prawdziwe wyzwanie dla twórców nowych strategii dla technologii jutra.

Zobaczmy więc, jakie są najczęstsze problemy związane z opieką nad osobami starszymi.

Źródło: https://www.ncoa.org/article/the-top-10-most-common-chronic-conditions-in-older-adults

Starzenie się wpływa zarówno na nasze samopoczucie fizyczne, jak i psychiczne. Według raportu WHO [2] do najczęstszych dolegliwości zdrowotnych organizmu związanych ze starzeniem się należą: utrata słuchu, zaćma i wady refrakcji, bóle pleców i szyi, choroba zwyrodnieniowa stawów, przewlekła obturacyjna choroba płuc, cukrzyca. Jeżeli chodzi o zdrowie psychiczne i umysłowe, to najczęstsze i najbardziej widoczne problemy to: samotność, wykluczenie, depresja i demencja. Często te różnorakie uwarunkowania się wzajemnie się wzmacniają i pogłębiają. Na przykład poczucie wykluczenia wynikające z niskiego poziomu aktywności fizycznej będzie pogłębiać depresję, to będzie z kolei prowadzić do wykluczenia. Jedna pozytywną stroną jest to, że może zachodzić też zjawisko odwrotne, tzn. jeśli uda nam się skompensować pewną konkretną dolegliwość (jak np. trudności w poruszaniu się), to w rzeczywistości możemy wywołać poprawę w wielu innych obszarach życia. Według raportu WHO [2] do najczęstszych dolegliwości zdrowotnych organizmu związanych ze starzeniem się należą: utrata słuchu, zaćma i wady refrakcji, bóle pleców i szyi, choroba zwyrodnieniowa stawów, przewlekła obturacyjna choroba płuc, cukrzyca. Jeżeli chodzi o zdrowie psychiczne i umysłowe, to najczęstsze i najbardziej widoczne problemy to: samotność, wykluczenie, depresja i demencja. Często te różnorakie uwarunkowania się wzajemnie się wzmacniają i pogłębiają. Na przykład poczucie wykluczenia wynikające z niskiego poziomu aktywności fizycznej będzie pogłębiać depresję, to będzie z kolei prowadzić do wykluczenia. Jedna pozytywną stroną jest to, że może zachodzić też zjawisko odwrotne, tzn. jeśli uda nam się skompensować pewną konkretną dolegliwość (jak np. trudności w poruszaniu się), to w rzeczywistości możemy wywołać poprawę w wielu innych obszarach życia.

Trzeba też uwzględnić fakt, że ze względu na wiele nieznanych na razie czynników (jak na przykład zmiany klimatyczne czy przełomy w medycynie) niektóre z tych schorzeń mogą stracić na znaczeniu, ale za to pojawią się inne, nowe.

Zobaczmy teraz, jakie konkretne wymagania muszą być spełnione, jeśli chcemy z powodzeniem tworzyć nowe technologie oparte na sztucznej inteligencji:

  • Prawdopodobnie najważniejszym wymogiem jest tworzenie rozwiązań humanitarnych, sprzyjających człowiekowi. Opiekunowie osób starszych powinni zapewnić więcej wsparcia psychologicznego (poprawić takie aspekty jak: komunikacja, dostępność, obecność, empatia), podczas gdy technologia powinna być raczej używana do reszty niezbędnych działań (takich jak np. diagnostyka czy monitorowanie [3]) > –> Rozwiązania skoncentrowane na człowieku i jego potrzebach
  • Większość osób powyżej 65 roku życia może mieć więcej niż jedno z wymienionych schorzeń. W takim przypadku ogólne rozwiązania po prostu zawodzą, dlatego będą potrzebne rozwiązania spersonalizowane > Rozwiązania wysoce elastyczne, dostosowane do potrzeb, spersonalizowana medycyna
  • Technologie nowej generacji są coraz trudniejsze do zaadoptowania nie tylko przez osoby badane, ale również przez samych opiekunów > Akceptacja przez użytkowników, specjalne wsparcie dla użytkowników
  • Scentralizowane instytucje opieki zdrowotnej mają ograniczone możliwości lub nie są dostępne dla wszystkich > Rozwiązania zdecentralizowane, rozproszone, zlokalizowane
  • Jeśli chodzi o sprzęt, problemem może być również jego utrzymanie > Potrzebne są ekonomiczne, ale solidne i niezawodne rozwiązania
  • Zarówno Ludzie, jak i warunki zdrowotne będą się ciągle zmieniać > Potrzebne są wysoce adaptacyjne i ewolucyjne rozwiązania

Można powiedzieć, że jeżeli chodzi o rozwiązania adaptacyjne, elastyczność i uczenie się rozwiązywania wciąż nowych problemów to dziedzina sztucznej inteligencji staje się bardzo ważna, a jej rola na pewno będzie wzrastać w przyszłości. Mówimy tutaj o wyzwaniach na dużą skalę, gdzie musimy wziąć pod uwagę zarówno ogólne, jak i specyficzne czynniki, które określają każdy przypadek. Powstaje konieczność tworzenia technologii, które to będą umożliwiać ułatwiać analizę różnorodnych czynników. I tu na ratunek przychodzi nam analiza danych powiązana ze sztuczną inteligencją i uczeniem maszynowym – Data Science!

O niektórych z naszych ekscytujących projektów można przeczytać w poniższych wpisach.

 

Bibliografia

[1] ‘OECD Data – Demography – Elderly population’. Accessed: Jun. 28, 2022. [Online]. Available: http://data.oecd.org/pop/elderly-population.htm

[2] ‘WHO Fact Sheet – Aging and Health’. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/ageing-and-health

[3] ‘[EC] Market study on telemedicine’. 2018. [Online]. Available: https://health.ec.europa.eu/system/files/2019-08/2018_provision_marketstudy_telemedicine_en_0.pdf

[4] Kawai, M. , Mirai no Nenpyo (=Future Chronologic Table), Tokyo: Kodansha. 2017

[5] https://foreignpolicy.com/2017/03/01/japan-prefers-robot-bears-to-foreign-nurses/

The post Bądź zdrowy i silny, czyli jak sztuczna inteligencja może pomóc w opiece nad osobami starszymi appeared first on Polaris website.

]]>
Wszystko czego potrzebujesz to AI, AGI? XAI! (ang. eXplainable AI) https://polarisitgroup.com/pl/2023/02/09/wszystko-czego-potrzebujesz-to-ai-agi-xai-ang-explainable-ai/ Thu, 09 Feb 2023 15:58:39 +0000 https://polarisitgroup.com/2023/02/09/wszystko-czego-potrzebujesz-to-ai-agi-xai-ang-explainable-ai/ W ISRV poszukujemy stale najlepszych narzędzi IT aby móc zaspokoić najwyższe wymagania naszych klientów. Dlatego właśnie zajmujemy się sztuczną inteligencją (ang. artificial intelligence, AI). Cały czas aktywnie używamy i rozwijamy narzędzia wykorzystujące AI w różnych dziedzinach: od rozwiązań związanych z zapewnieniem bezpieczeństwa ruchu (w szczególności, dla pasów startowych na lotniskach), poprzez analizy wzorców zachowania ludzi, […]

The post Wszystko czego potrzebujesz to <span style="text-decoration: line-through">AI, AGI</span>? XAI! (ang. eXplainable AI) appeared first on Polaris website.

]]>
W ISRV poszukujemy stale najlepszych narzędzi IT aby móc zaspokoić najwyższe wymagania naszych klientów. Dlatego właśnie zajmujemy się sztuczną inteligencją (ang. artificial intelligence, AI). Cały czas aktywnie używamy i rozwijamy narzędzia wykorzystujące AI w różnych dziedzinach: od rozwiązań związanych z zapewnieniem bezpieczeństwa ruchu (w szczególności, dla pasów startowych na lotniskach), poprzez analizy wzorców zachowania ludzi, aż do usprawniania procesów przemysłowych i biznesowych.

Sztuczna inteligencja (AI) jest dziś słowem kluczem, znakiem naszych czasów, dlatego naturalnym jest, że zajmuje ona centralne miejsce na naszym blogu.

Media są pełne doniesień na temat AI, pełne przykładów niesamowitych sukcesów, jednak w dalszym ciągu istnieje wiele nieporozumień dotyczących znaczenia podstawowych pojęć tej dziedziny. Alarmujące jest również to, że zazwyczaj nie opowiada się o odniesionych porażkach, nie jest też do końca jasne w jaki sposób mierzy się sukces w dziedzinie zastosowań AI. Nie zamierzamy tutaj mówić na temat sukcesów i cudownych zastosowań AI.

Zamiast tego chcemy skupić się na tym jak wypełnić lukę między biznesem a technologią. Wierzymy, że AI pozostanie z nami i stanie się stałym składnikiem ekosystemu IT, ale wierzymy również, że jasna komunikacja z naszymi klientami oraz krytyczne podejście do technologii jest szczególnie istotne.

O dynamice rozwoju sztucznej inteligencji świadczy chociażby dobitnie sama ilość pieniędzy wydanych na finansowanie startupów opartych na sztucznej inteligencji. Pokazuje to poniższy wykres.

 

Źródło: https://www.cbinsights.com/research/report/ai-trends-2021/

 

Nasuwa się tutaj pytanie: czy to tylko preludium do kolejnej bańki inwestycyjnej, podobnej do bańki internetowej (tzw. dot-com bubble) z końca lat 90-tych?

Już samo istnienie wydziału sztucznej inteligencji w naszej firmie świadczy o tym, że bardzo poważnie podchodzimy i do metodologii w tej dziedzinie, i do jej zastosowań. Nasz blog podkreśla jeden kluczowy czynnik, który powoduje, że uważamy AI za technologię, która pozostanie z nami na długi czas.

Po pierwsze wyjaśnijmy zamieszanie wokół terminów „sztuczna inteligenacja” (ang. Artificial intelligence, AI) i „uczenie maszynowe” (ang. machine learning, ML). Co powoduje, że system jest „systemem AI”, systemem sztucznej inteligencji? Biorąc pod uwagę ogromną popularność tego terminu, może być zaskakujące, że w świecie nauki nie ma zgody co do znaczenia pojęcia „sztuczna inteligencja”. Abyśmy mogli zdefiniować to pojęcie, musielibyśmy zdefiniować najpierw co powoduje, że uważamy jakiś naturalny system za inteligentny. Odpowiedź na takie pozornie proste pytanie jest „świętym Graalem” tej dziedziny, jest przedmiotem wielu dyskusji specjalistów z różnych dziedzin, takich jak: psychologia kognitywna, informatyka, robotyka czy nauki o rozwoju człowieka. Jednak zamiast poszukiwać odpowiedzi na to, skądinąd fascynujące pytanie, skupimy się tutaj na pewnych aspektach inteligencji, które mogą nas samych zadziwiać, gdy myślimy o naszych ludzkich zdolnościach umysłowych.

Pamiętając o tym czego doświadczyliśmy w przeszłości, możemy rozpoznać i rozwiązać problemy podobne do tych, które poznaliśmy wcześniej. Poprzez dekompozycję dużych problemów na mniejsze uczymy się jak tworzyć plany i strategie, które będą przydatne w rozwiązywaniu przyszłych problemów.

Połączenie takich czynności jak: zapamiętywanie, uczenie się czy przewidywanie jest podstawą umiejętności uogólniania, umiejętności, której wciąż brakuje maszynom. Dla tego na razie nie musimy się martwić, era tzw. ogólnej sztucznej inteligencji (ang. artificial general intelligence, AGI) jeszcze nie nadeszła.

Sądzimy, że w większości przypadków termin „sztuczna inteligencja” jest niewłaściwie użyty, szczególnie gdy odnosi się do nie istniejącej przecież jeszcze „ogólnej sztucznej inteligencji” (AGI). Zamiast tego uważamy, że termin AI powinien być używany dla systemów zaprojektowanych do rozwiązywania pewnego wybranego problemu (tzw. „narrow AI”). Można powiedzieć, że w tym sensie dane rozwiązanie AI będzie imitować pewien wybrany proces poznawczy, proces kognitywny, taki jak na przykład rozumienie tekstu czy rozumienie sceny.

Z naszego punktu widzenia pojęcie sztuczna inteligencja (AI) będzie najczęściej oznaczało po prostu system informatyczny przeznaczony do rozwiązywania pewnych problemów wymagających technik uczenia maszynowego. W praktyce, większość rozwiązań AI może być rozpatrywana jako gra typu pytanie-odpowiedź: dla określonych danych wejściowych (takich jak obraz, tekst czy dane liczbowe np. szeregi czasowe) należy przypisać odpowiednią etykietę (ang. label). Będzie to na przykład: adnotacja tekstowa, powiązana z danymi informacja lub przewidywanie dotyczące następnej wartości w szeregu czasowym, itd. Pytania i odpowiedzi mogą być zgodne z pewnym nieznanym wzorcem, trudnym do zdefiniowania jako prosty model matematyczny. Jednak, gdy systemowi zostanie przedstawiona wystarczająca (zazwyczaj bardzo duża) liczba takich par: pytanie-odpowiedź, to system może nauczyć się rozpoznawać ten specyficzny wzorzec. Potęga sztucznej inteligencji polega na możliwości znajdowania i uczenia się tych wzorców bez udziału człowieka oraz bez znajomości predefiniowanych modeli, pojęć czy idei. Wyuczone wzorce następnie prowadzą system do odgadnięcia brakujących części, gdy prezentowany jest jeden element wzorca („pytanie”). Uczenie się jest kluczową koncepcją inteligencji, dlatego natura wyposażyła nas w kilka możliwości uczenia się: poprzez naśladowanie, uczenie się oparte na instrukcjach, uczenie się z przykładów oraz uczenie się oparte na ciekawości. Wszystkie te sposoby uczenia się są potrzebne by dać organizmowi większe szanse na przetrwanie w środowisku. Systemy informatyczne AI potrafią wydobyć te ukryte informacje dotyczące relacji pytanie-odpowiedź za pomocą jednego z podanych mechanizmów uczenia się. Oznacza to, że często rozwiązać problem można na kilka sposobów, na przykład stosując różne metody uczenia maszynowego. Jednak nie istnieje na razie ogólna teoria pozwalająca na stworzenie systemu stosującego kombinację tych podejść. Jest to prawdopodobnie powód tego, że większość naukowców i specjalistów IT mówiąc o sztucznej inteligencji mówi najczęściej o uczeniu maszynowym a nie o ogólnej sztucznej inteligencji.

Chociaż prawdą jest to, że sztuczna inteligencja jeszcze się nie pojawiła, to jednak istnieją już gotowe zestawy narzędzi uczenia maszynowego w postaci bibliotek oprogramowania, które są niezwykle efektywne w szczególnych zastosowaniach. W firmie Polaris i ISRV stosujemy te narzędzia do rozwiązywania różnorodnych zadań i problemów, takich jak np. wykrywanie obiektów na obrazach RGB i na obrazach w podczerwieni (termowizja) oraz wykonywanie segmentacji na chmurach punktów 3D.

Istnieje wiele różnych modeli uczenia maszynowego. Różnią się one mechanizmami uczenia oraz sposobem opisu problemu, który przesyłamy komputerowi do rozwiązania.

Ogólnie rzecz biorąc, większa złożoność modelu skutkuje większą dokładnością (czyli wyższym prawdopodobieństwem udzielania poprawnej odpowiedzi).

Ale nie ma nic za darmo: zastosowane modele, choć są bardzo skomplikowane, to nie mogą dać nam wglądu w zależności znalezione w danych, nie mogą dać nam też wglądu w to, jak model doszedł do ostatecznego wyniku, do końcowego wniosku jego analiz.

Innymi słowy, tzw. „wyjaśnialność” modelu gdzieś się po drodze gubi.

Poniższy rysunek przedstawia związek pomiędzy średnią wydajnością (czyli dokładnością) modelu a jego wyjaśnialnością .

Źródło: https://www.darpa.mil/program/explainable-artificial-intelligence

Można by w tym miejscu zapytać, dlaczego tak istotna jest możliwość zrozumienia wewnętrznych procesów jakie zachodzą w tych złożonych modelach, skoro końcowy rezultat ich pracy jest taki dobry. Czasem można spotkać się z poglądem, że nie ma to znaczenia, skoro tak dobrze działają. Jednak coraz częściej i w środowiskach akademickich i w przemyśle wzrasta zainteresowanie tą kwestią. Ponieważ modele te są coraz częściej stosowane w różnych dziedzinach życia i coraz więcej stają się ważnym elementem kluczowych procesów, dlatego wielu specjalistów uważa, że nie można ich traktować jak „czarnej skrzynki” i interesować się tylko ostatecznym wynikiem. Takie podejście jest niebezpieczne i może w przyszłości prowadzić do różnego rodzaju nieprzewidzianych skutków czy wręcz katastrof. Wg badań PwC z 2019r [8] większość ankietowanych dyrektorów generalnych (CEO) uważa, że sztuczna inteligencja musi być wyjaśnialna aby można było jej zaufać.

Jeżeli nie potrafimy wyjaśnić co się dzieje wewnątrz pewnego systemu, to jak możemy mu zaufać w przyszłości? Skąd mamy wiedzieć, czy taki system zawiedzie albo kiedy zawiedzie? Co możemy uzyskać z wyuczonych wzorców?

Pojęcia takie jak wyjaśnialność modelu czy w ogóle wyjaśnialna sztuczna inteligencja (XAI) dotyczą właśnie takich problemów. W miarę jak wzrasta wykorzystanie sztucznej inteligencji, jest coraz więcej obszarów, w których wiarygodność metody i odpowiedzialność za wynik mają centralne znaczenie. Źródłem poprzedniego wykresu jest DARPA (Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności), organizacja odpowiedzialna za badania militarne w Stanach Zjednoczonych. Nic dziwnego, że to właśnie ta organizacja była jedną z pierwszych organizacji zajmujących się bardzo poważnie problemem wyjaśnialności w dziedzinie sztucznej inteligencji. Branża militarna nie jest jedyną branżą, w której podejmowanie decyzji może być usprawnione dzięki użyciu systemów AI. Pewnego dnia infrastruktura o krytycznym znaczeniu jak na przykład statki kosmiczne czy kontrola ruchu lotniczego będą zależeć od sztucznej inteligencji. Już dziś istnieją dziedziny, gdzie doświadczamy mniejszych lub większych przeszkód związanych ze krótkowzrocznym używaniem metod sztucznej inteligencji jako tzw. „czarnej skrzynki”. Przykładami mogą być: opieka zdrowotna (pomyślmy choćby o spersonalizowanej medycynie), prawo czy sektor ubezpieczeń.

Dodatkowo, wyjaśnialność jest powiązana również z zachowaniem prywatności (RODO, czyli tzw. Prawo do wyjaśnienia), tak więc pomału nieodwołalna staje się konieczność wykorzystania wyjaśnialnych rozwiązań AI.

Przez wyjaśnialną sztuczną inteligencję (XAI) rozumie się zestaw narzędzi, za pomocą których można pokazać w jaki sposób dane modele uczenia maszynowego podejmują decyzje. Celem jest zapewnienie wglądu w sposób działania modelu, tak aby człowiek, ekspert w tej dziedzinie mógł prześledzić proces podejmowania decyzji i zrozumieć logikę jaka za nim stoi.

W związku różnorodnością w dziedzinie AI, w tym z różnorodnością dziedzin zastosowań, typów danych, metod i zakresu, nie istnieje jedno uniwersalne podejście do wyjaśnialnej sztucznej inteligencji (XAI).

Jednak dzięki coraz większej świadomości interesariuszy w różnych organizacjach istnieją dziesiątki nowych metod, które pomagają przekształcić „niewyjaśnialne” metody sztucznej inteligencji w wyjaśnialne. Takie, które będą bardziej przejrzyste, przewidywalne i pewne, i którym można zaufać. Poniższy wykres przedstawia liczbę opublikowanych raportów na temat wyjaśnialnej sztucznej inteligencji (XAI) w ciągu ostatnich kilku lat.

Źródło: shorturl.at/knAR9

Niedawno opublikowany przegląd dotyczący analizy artykułów na temat wyjaśnialnej sztucznej inteligenacji (XAI) opublikowanych w renomowanych czasopismach naukowych zawierał następujące zestawienie przedstawiające zastosowania różnych metod XAI. Wyniki możemy zobaczyć poniżej.

Źródło: https://arxiv.org/abs/2107.07045

Jak widać na powyższym wykresie, istnieje wiele metod specyficznych dla danej dziedziny, ale widać też, że duża liczba metod może być stosowana uniwersalnie. Widać też, że rozkład podstawowych metod uczenia maszynowego jest zgodny z obecnymi trendami widocznymi dziedzinie AI, z głębokimi sieciami neuronowymi (DLN) na czele. Tradycyjnie łatwiej jest przeprowadzić analizę post hoc i zajrzeć w mechanizm zastosowanych modeli. Niemniej jednak nowe pomysły pomagają tworzyć nowe rozwiązania, które po prostu ze swej natury będą wyjaśnialne. Badanie wyjaśnialności polega na tym, że analizuje się odpowiedzi na pojedyncze dane wejściowe lub też analizuje się przeciętne zachowanie systemu pod wpływem tych danych. Ostatecznie wynik tego procesu powinien być skoncentrowany na człowieku – dlatego sposób w jaki ten wynik jest prezentowany ma znaczenie. Tak więc metody te charakteryzują się tym, że dają wyniki w formie wizualizacji, zasad, tekstu czy liczb.

Oto przykłady metod lokalnych, czyli takich, gdzie można interpretować wyjście modelu do danej instancji. Oprócz tego istnieją również metody globalne oraz mieszane. Większość z nich można zastosować do innych modalności takich jak tekst, dźwięk czy dane multimodalne.

Metoda LIME (Local Interpretable Model-Agnostic Explanations) – to metoda obojętna względem modelu, tworzy zastępczy model liniowy, który uczy się związku pomiędzy predykcją modelu źródłowego a cechami oryginalnego sygnału wejściowego. Dla obrazów cechami mogą być piksele lub ich grup, dla danych tabelarycznych cechami będą oddzielne kolumny. Ta metoda zyskała popularność, ponieważ może być stosowana dla wielu różnych modeli i metod.

W problemach klasyfikacyjnych, gdzie występuje wiele klas, modele są często używane, aby dostarczyć jako wynik nie jedną, a pewną liczbę N najwyżej ocenianych etykiet (ang. labels) dla podanych danych wejściowych. Przykład pokazany na poniższym rysunku analizuje trzy główne (tzn. najwyżej oceniane) etykiety (odpowiadające trzem przewidywanym przez model klasom).

Trzy główne przewidywane przez model klasy to „tree frog”, pool table” i „balloon”. Źródła: Marco Tulio Ribeiro, Pixabay (frog, billiards, hot air balloon).
https://www.oreilly.com/content/introduction-to-local-interpretable-model-agnostic-explanations-lime/

Dla danych tabelarycznych lub ustrukturyzowanych, gdzie kolumny reprezentują atrybuty lub zdefiniowane cechy, ważność cech oraz proste interakcje pomiędzy cechami można oszacować i zwizualizować używając na przykład metody SHAP (SHapley Additive exPlanations) Zaprezentowanej w racy [10]. [10].

Na przykład Kaggle używa zestawu danych FIFA, który zawiera dane o kilku meczach. Kilka dostępnych tam tutoriali dotyczy problemu analizy ważności poszczególnych cech podczas procesu przewidywania przez model czy dana drużyna zdobędzie odznakę „Man of the Match”. Wśród nich są takie cechy jak: drużyna przeciwnika, posiadanie piłki, zdobyte gole, itd.

Poniższy przykład pokazuje udział każdej z cech w ostatecznym wyniku (czyli predykcji) generowanej przez model.

 

Źródła: https://www.kaggle.com/code/dansbecker/shap-values/tutorial

 

Cechy zaznaczone na czerwono zwiększają, natomiast cechy zaznaczone na niebiesko zmniejszają przewidywany wynik z uśrednionego wyjścia modelu. Podczas obliczania ważności cech brane są również pod uwagę interakcje pomiędzy nimi.

Choć podane przykłady można uznać za uproszczone czy edukacyjne, to pokazany problem wyjaśnialności modelu ma tutaj kluczowe znaczenie. Wyobraźmy sobie, że pracujemy nad wielofunkcyjnym autonomicznym urządzeniem do teledetekcji, urządzeniem, które może być wykorzystane do detekcji obcych obiektów lub anomalii na pewnej badanej powierzchni. Aby zapewnić odpowiednią skuteczność działania, urządzenie wyposażono w wiele czujników. Pomyślmy na przykład o wykrywaniu różnych luźnych elementów w wysoce zautomatyzowanej fabryce albo o wykrywaniu gruzu na pasach startowych lotnisk. Wyzwanie polega na tym, że nie możemy z góry określić czego szukamy, ponieważ anomalia jest tylko odchyleniem od oczekiwań. Z kolei system może „przegapić” coś ważnego albo też wywołać fałszywy alarm. Ze względów bezpieczeństwa oraz dla celów ubezpieczeniowych rejestrujemy wszystkie zdarzenia, po to abyśmy mogli rozwiązać problem lub wyjaśnić uzyskane wyniki. Dzięki temu nasze rozwiązania są z założenia transparentne i godne zaufania.

Sądzimy, że ten krótki tekst poprzez zasygnalizowanie kilku ważnych kwestii pomoże budować zaufanie do transparentnych rozwiązań w dziedzinie AI. Możliwość wyjaśnienia, dlaczego systemy AI działają w taki a nie inny sposób, dlaczego dają określone wyniki, pomoże tworzyć innowacyjne i wiarygodne rozwiązania zarówno dla starych, jak i dla nowych problemów.

Mamy nadzieję, że dzięki naszemu doświadczeniu oraz naszej pasji będziemy mogli pomóc Państwa firmie rozwijać się i wykorzystać szanse jakie daje sztuczna inteligencja.

W kolejnych postach przedstawiamy obszary i projekty, w których aktywnie działamy w zakresie badań i rozwoju.

Źródła:

[1] https://towardsdatascience.com/5-significant-reasons-why-explainable-ai-is-an-existential-need-for-humanity-abe57ced4541

[2] Gunning, D., Vorm, E., Wang, J.Y. and Turek, M. (2021), DARPA’s explainable AI (XAI) program: A retrospective. Applied AI Letters, 2: e61. https://doi.org/10.1002/ail2.61

[3] http://www-sop.inria.fr/members/Freddy.Lecue/presentation/aaai_2021_xai_tutorial.pdf

[4] https://proceedings.neurips.cc//paper/2020/file/2c29d89cc56cdb191c60db2f0bae796b-Paper.pdf

[5] Recital 71 eu gdpr. https://www.privacy-regulation.eu/en/r71.htm, 2018. Online; accessed 27-May-2020.

[6] https://proceedings.neurips.cc//paper/2020/file/2c29d89cc56cdb191c60db2f0bae796b-Paper.pdf

[7] Gohel, Prashant et al. “Explainable AI: current status and future directions.” ArXiv abs/2107.07045 (2021).

[8] https://www.computerweekly.com/news/252462403/Bosses-want-to-see-explainable-AI

[9] Ribeiro MT, Singh S, Guestrin C (2016) “Why should I trust you?” Explaining the predictions of any classifier. In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pp 1135–1144

[10] Scott M. Lundberg and Su-In Lee. 2017. A unified approach to interpreting model predictions. In Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook, NY, USA, 4768–4777.

The post Wszystko czego potrzebujesz to <span style="text-decoration: line-through">AI, AGI</span>? XAI! (ang. eXplainable AI) appeared first on Polaris website.

]]>
Sztuczna inteligencja wspomagająca zarządzanie zasobami naturalnymi: monitorowanie zieleni miejskiej https://polarisitgroup.com/pl/2023/01/30/sztuczna-inteligencja-wspomagajaca-zarzadzanie-zasobami-naturalnymi-monitorowanie-zieleni-miejskiej/ Mon, 30 Jan 2023 20:21:22 +0000 https://polarisitgroup.com/2023/01/30/sztuczna-inteligencja-wspomagajaca-zarzadzanie-zasobami-naturalnymi-monitorowanie-zieleni-miejskiej/ W dzisiejszych czasach trudno jest natrafić na informację z dziedziny informatyki (IT), która nie wspominałaby o technologiach związanych ze sztuczną inteligencją (AI). Ponieważ technologie informacyjne (IT) stały się centralną częścią całej naszej gospodarki to sztuczna inteligencja, rozumiana jako część IT, podlegać będzie podobnym procesom. Znajduje ona coraz więcej zastosowań w gospodarce i będzie niebawem wykorzystywana […]

The post Sztuczna inteligencja wspomagająca zarządzanie zasobami naturalnymi: monitorowanie zieleni miejskiej appeared first on Polaris website.

]]>
W dzisiejszych czasach trudno jest natrafić na informację z dziedziny informatyki (IT), która nie wspominałaby o technologiach związanych ze sztuczną inteligencją (AI). Ponieważ technologie informacyjne (IT) stały się centralną częścią całej naszej gospodarki to sztuczna inteligencja, rozumiana jako część IT, podlegać będzie podobnym procesom. Znajduje ona coraz więcej zastosowań w gospodarce i będzie niebawem wykorzystywana wszędzie tam, gdzie mamy do czynienia z generowaniem danych cyfrowych. To znaczy, że praktycznie wszędzie. Każdy proces biznesowy – czy będzie to produkcja, marketing, zarządzanie zasobami ludzkimi (HR), finanse czy logistyka – jest transformowany przez sztuczną inteligencję. Skąd jednak wiemy, czy sztuczna inteligencja nie jest tylko koleją modą, hasłem medialnym, które niedługo zniknie lub zostanie zastąpione inną modą? Czy to nowe podejście do procesów biznesowych, podejście oparte na intensywnym wykorzystaniu danych cyfrowych stanie się trwałym elementem IT? Obecnie sztuczna inteligencja nie jest już tylko domeną projektów realizowanych w laboratoriach uniwersyteckich. Technologia AI staje się coraz bardziej dojrzała, a nowe odkrycia wprowadzane są na rynek IT w niespotykanym dotąd tempie. Dzięki właściwemu wykorzystaniu technologii AI złożone systemy będą bardziej przejrzyste i ‘wyjaśnialne’, czyli będziemy wiedzieć, dlaczego system podejmuje takie a nie inne decyzje. Dzięki temu sterowanie procesami lub przynajmniej prognozowanie ich przebiegu, będzie coraz łatwiejsze i obarczone mniejszymi błędami.

Aby tak się stało, potrzebujemy nowych perspektyw, nowych modeli organizacyjnych i nowych rozwiązań w sferze IT.

Pomimo tego, że wiele zastosowań sztucznej inteligencji nowej generacji jest naprawdę niesamowitych, to w większości przypadków rola sztucznej inteligencji w systemach informatycznych jest zazwyczaj słabo zrozumiała lub trudna do wyjaśnienia.

Dzięki temu, że rozumiemy logikę biznesową, możemy pomóc zidentyfikować, i przeanalizować procesy oraz tworzyć optymalne rozwiązania dla naszych partnerów biznesowych za pomocą jasnych i przejrzystych metod. Cała „magia” rozwiązania problemu ukryta jest bowiem w ludzkiej kreatywności, a nie w „czarnych skrzynkach” wykorzystujących metody sztucznej inteligencji w jakiś tajemniczy sposób ukryty przed użytkownikiem. Na tym blogu z przyjemnością zaprezentujemy Państwu jeden konkretny przykład, w którym pokażemy, że sztuczna inteligencja może mieć znaczący wpływ na jakość życia całej populacji.


Zadanie: Zarządzanie zielenią miejską w Singapurze

Źródło: https://cutt.ly/vkW439J

Singapur – nazywany także Miastem Ogrodem („Garden City”) [1] – zdobył odznakę najbardziej zielonego miasta na Ziemi sadząc od około jednego do dwóch milionów drzew. Jednak utrzymanie tak złożonego systemu, na który składają się parki, lasy i ulice wymaga ogromnej ilości siły roboczej, zasobów oraz umiejętności. Zmiana klimatu sprawia, że to zadanie staje się jeszcze trudniejsze, ponieważ lokalne warunki pogodowe w ciągu ostatnich kilku lat znacznie się zmieniły, skracając żywotność drzew i pomagając w rozprzestrzenianiu się różnych chorób (grzyby, bakterie, owady). Ponieważ jakość życia mieszkańców w dużej mierze zależy od stanu roślinności w mieście, dlatego należy podjąć odpowiednie działania w celu zachowania i poprawy stanu terenów zielonych.

Co w takim razie jest potrzebne, aby zapewnić prawidłowe działanie tego systemu? Rada Parków Narodowych w Singapurze (National Parks Board, NParks), która jest odpowiedzialna za wszystkie publiczne tereny zielone w Singapurze – opracowała plan działani (https://cutt.ly/zkKamWm ).
First, an automated monitoring system was developed that not only helps to assess the present state of the environment, but also it is the foundation of environmental modeling that is used to direct future plantations and support risk analysis (like identifying trees that will likely fall).
As a second step they need a computer aided system that can automate some parts of the data analysis so man power can better be utilized.
Finally they will need a system that can create and fine tune weather and environmental models that can take into account all kinds of data to be collected in the future regarding the physical conditions of the city.

 

Po pierwsze, opracowano zautomatyzowany system monitorowania, który nie tylko pomaga ocenić obecny stan środowiska, ale także stanowi podstawę modelowania środowiskowego, które służy do kierowania przyszłymi plantacjami i wspomaga przeprowadzanie analizy ryzyka (np. identyfikacji drzew, które prawdopodobnie niedługo padną). Drugim elementem systemu, którego potrzebują do realizacji planów, jest wspomagany komputerowo system, który może zautomatyzować niektóre procesy analizy danych, po to, aby lepiej wykorzystać siłę roboczą.

 

Ostatnim elementem będzie system, który będzie w stanie tworzyć i dostrajać modele pogodowe i środowiskowe, uwzględniające wszelkiego rodzaju dane, które będą zbierane w przyszłości, a będą odnosić się do fizycznych warunków miasta. Już sama automatyzacja w procesie zbierania danych stanowi ogromny krok, gdyż jeden ekspert może zbadać tylko kilkadziesiąt drzew dziennie podczas prac terenowych. Obecnie gromadzenie danych odbywa się z wykorzystaniem specjalnych samochodów wyposażonych w systemy czujników LIDAR (ang. Light Detection And Ranging). Samochody te przemierzają miasto i zbierają wysokiej rozdzielczości dane dostarczane z czujników LIDAR oraz dodatkowo zdjęcia panoramiczne, na których rejestrowane jest otoczenie samochodu.
Źródło: https://cutt.ly/0kW4OMU

 

Uzyskane na podstawie czujników obrazy tego samego obiektu, wykonane pod różnymi kątami, mogą być użyte do identyfikacji odpowiadających im obiektów i przypisania im ustalonej pozycji w trójwymiarowym układzie współrzędnych. Odpowiadająca im chmura punktów LIDAR 3D może być następnie wykorzystana do zrekonstruowania szczegółowej morfologii 3D zidentyfikowanego obiektu, w tym przypadku, drzewa: jego wysokości, średnicy i kąta nachylenia pnia drzewa, położenia rozwidlenia pierwszej gałęzi, objętości korony itd.

W idealnym przypadku chmurę punktów 3D uzyskaną za pomocą pomiarów z czujników LIDAR można podzielić na pewne znaczące części odpowiadające elementom drzewa: takie jak korona, gałęzie i pień drzewa. Precyzyjne, drobnoziarniste modelowanie tych części może pomóc w oszacowaniu całej morfologii drzewa. Źródło: https://cutt.ly/AkW4VeT https://cutt.ly/AkW4VeT

Przy pierwszym podejściu do problemu podjęto próbę tradycyjnego, ręcznego zrekonstruowania drzew na podstawie uzyskanych punktów danych w 3D. Użyto przy tym metod, których do dziś używają inspektorzy drzew podczas oceny stanu drzew. To podejście okazało się jednak niezwykle powolne i nieprecyzyjne.

Jednak, gdy wyobrazimy sobie ogromne ilości danych zebranych do analizy, to już samo myślenie o tym może przyprawić nas o zawrót głowy. Dlatego przetwarzanie tych danych również musi być zautomatyzowane. I tu pojawia się wyzwanie! Jak możemy przekształcić specjalistyczną wiedzę ekspertów na taką postać, z której może skorzystać komputer? Niska wiarygodność wspomnianego powyżej tradycyjnego podejścia wynika z faktu, że zostało ono zbudowane na zbiorze skomplikowanych i sztywnych reguł. Naszym głównym zadaniem było więc wymyślenie takiego rozwiązania, które poradzi sobie z bardzo złożonymi przykładami i będzie w stanie zlokalizować drzewa oraz dostarczyć geometryczny model każdego drzewa, z którego można wydajnie (to znaczy szybko i precyzyjnie) uzyskać wszystkie wymagane parametry.

 

Rozwiązanie. Teoria

Obecnie praktycznie wszędzie możemy zaobserwować zastosowania procesu modelowania jak i użycia modeli 3D. Stosuje się je w różnych dziedzinach, od utrzymania infrastruktury po opiekę zdrowotną (dzisiejsza inżynieria zasadniczo polega głównie na modelowaniu 3D). Lekarze mogą w codziennej pracy np. podczas diagnozowania czy przeprowadzania operacji korzystać z modeli 3D utworzonych na podstawie zebranych wcześniej danych obrazowych. Innym przykładem są autonomiczne pojazdy. Podczas ruchu system takiego pojazdu musi szybko rozpoznać wszystkie istotne obiekty zarówno statyczne jak i poruszające się. Obrazy płaskie, 2D często są jednak trudne do interpretacji lub są zbyt zaszumione, aby były pomocne (słaba widoczność, różnego rodzaju zakłócenia itp. często obniżają ich jakość). Oprócz tego, że same sensory mają swoje fizyczne ograniczenia, to dodatkowo ogromna różnorodność obiektów jeszcze bardziej utrudnia w takim przypadku zadanie. Dlatego rozwiązania oparte na regułach (tzw. systemy regułowe) po prostu zawodzą.

Tutaj na ratunek przychodzi sztuczna inteligencja. Właściwie powinniśmy mówić w tym przypadku o tzw. uczeniu maszynowym (ang. Machine Learning). Uczenie maszynowe (w skrócie ML) to pojęcie węższe niż AI, jest to termin określający różne metody obliczeniowe, będące często podstawą systemów AI, a które całkiem dobrze sprawdzają się w rzeczywistych sytuacjach spotykanych w codziennym życiu.

Kluczowym aspektem tych różnych metod uczenia maszynowego jest to, że mogą one odkrywać pewne wzorce w dostarczanych im danych i następnie uczyć się wzorców i relacji między danymi (czyli obserwacjami) a ich opisem dostarczanym przez ekspertów danej dziedziny. Te opisy danych są to tzw. tagi, nazywane też adnotacjami lub etykietami. Proces uczenia polega na stopniowym dostrajaniu parametrów algorytmu, tak aby coraz lepiej (to znaczy popełniając coraz mniej błędów) przypisywać tagi (czyli adnotacje) do danych. W naszym przypadku danymi są punkty 3D, natomiast tagi (adnotacje) to etykiety typu „pień drzewa” lub „korona drzewa”, itd. Przypisując odpowiedni tag do każdego pojedynczego punktu, w rzeczywistości dokonujemy segmentacji semantycznej: punkty są dzielone na specyficzne grupy lub klastry. W przypadku gdy muszą zostać wykryte i oddzielone podobne obiekty (np. dwa różne drzewa), wtedy używana jest dodatkowa etykieta jako tzw. identyfikator (ID): punkty oznaczone tym samym ID należą do tego samego obiektu. To zadanie jest zwykle nazywane segmentacją instancji.


Rozwiązanie w praktyce

Dane, dane, dane

Do uczenia modelu potrzebne są przede wszystkim dane. Jeżeli chodzi o bazy danych zawierających chmury punktów 3D wraz z adnotacjami to dostępnych jest sporo takich baz. Większość z nich ma jednak różnego rodzaju wady, które czynią je bezużytecznymi dla naszego projektu. Niektóre nie zawierają informacji o drzewach, ich rozdzielczość jest zbyt niska lub zastosowane kategorie po prostu nie są wystarczająco dobre. Jako przykład można podać proste etykiety typu: „roślinność wysoka” czy „roślinność niska”, które są używane w danych dostępnych pod tym adresem: https://www.semantic3d.net/.

Z tego powodu naszym pierwszym krokiem było to, aby pomóc naszym partnerom w tworzeniu dużego i heterogenicznego zestawu danych treningowych na podstawie ich własnych pomiarów. Ponieważ podczas zbierania danych używanych jest kilka rodzajów sensorów (LIDAR, zdęcia), dlatego zestaw danych zawiera zarówno chmury punktów 3D jak i odpowiadające im obrazy 2D. Jednak chmury punktów 3D nie są ustrukturyzowane (w przeciwieństwie do obrazów 2D, w których każdy punkt danych jest powiązany z siatką). Rozdzielczość jest wysoka, dane są zaszumione, a obiekty 3D bardzo złożone (drzewa zazwyczaj nie mają prostych, regularnych kształtów). Idealny zbiór danych treningowych składałby się z kilku tysięcy dobrze opisanych chmur punktów 3D (tzn. punktów z adnotacjami) (nazwijmy je „woluminami 3D”) oraz dodatkowo z obrazów 2D z adnotacjami (tzn. obrazów podzielonych na segmenty). W rzeczywistości jednak możemy korzystać tylko z tego co mamy dostępne. Dlatego wszystkie przedstawione poniżej wyniki uzyskano korzystając z zaledwie kilkuset chmur punktów 3D (czyli kilkuset „woluminów 3D”)!


Wybór modelu i szkolenie

W czasie, gdy zaczynaliśmy pracę nad tym projektem, dostępnych było tylko kilka wydajnych modeli, które potrafiły wywnioskować jaka jest morfologia obiektów 3D na podstawie nieustrukturyzowanych chmur punktów 3D. Wykluczyliśmy niektóre z nich, ponieważ wymagały zbyt dużej ilości danych lub wydawały się zbyt wolne, aby mogły być zastosowane w praktyce. Była to ważna lekcja. Chociaż istnieje znacznie więcej obrazów 2D, a do tego algorytmy segmentacji 2D są dość dobrze rozwinięte, to analiza modeli 3D jest w rzeczywistości szybsza, ponieważ w tym przypadku dane 3D są to tzw. dane rzadkie. Dlatego zamiast stosować skomplikowane podejście, w którym bezpośrednio, od razu integrować dane 2D i 3D, zbudowaliśmy i dostroiliśmy dwa oddzielne modele: do segmentacji 2D i 3D. Ostateczne rozwiązanie obejmowało dwa kroki. Najpierw wytrenowaliśmy model, aby zlokalizować drzewa (tzn. środek pni drzew na ziemi). Następnie przeszkoliliśmy masz połączony model dwóch wcześniej opublikowanych rozwiązań w celu segmentacji poszczególnych drzew oraz ich części.

 

Oto przykład rezultatu uzyskanego wg naszego rozwiązania, dla do danych przykładowego drzewa:

Segmentacja semantyczna 3D. Po lewej stronie widzimy oryginalny widok przechwycony jako obraz 2D. Po prawej widać, że model oddziela słupy elektryczne od korony i dużych gałęzi drzewa. Kolory (czyli tzw. „maska”) pochodzą z segmentowanych danych 3D, dzięki czemu współrzędne każdego punktu można odwzorować na reprezentacji 2D.


Ocena

Wydajność wytrenowanych modeli została zmierzona jako dokładność na tej części zestawu danych z adnotacjami, która nigdy nie była używana podczas procesu uczenia. Proces ten naśladuje sposób, w jaki model będzie działał na przyszłych danych, co czyni ocenę bardziej obiektywną. Przewidywane przez model etykiety porównano z adnotacjami ekspertów. Dokładność (ang. mean Intersection Over Union, mIoU) wykrywania drzewa i segmentacja części drzewa była następująca:

 

MIOU Tło Korona Pień-gałęzie
2D 97% 90% 70%
3D 99% 96% 78%

 

.

.

Wytrenowane modele są w stanie segmentować zarówno części drzewa (A) jak i poszczególne drzewa (B)

Od rozwiązania do wersji produkcyjnej

Podczas współpracy z partnerem nasz główny wkład polegał przede wszystkim na stworzeniu rdzenia rozwiązania ML. Na tym jednak praca się nie skończyła. Doradzaliśmy naszemu partnerowi jak dobrać najlepszą infrastrukturę programową i sprzętową oraz zapewniliśmy dalsze wsparcie w integracji naszego rozwiązania z istniejącym środowiskiem analitycznym posiadanym przez NParks.

Końcowe rozwiązanie zostało utworzone i wdrożone w prywatnej chmurze. Wstępne przetwarzanie przychodzących danych sensorycznych, wnioskowanie w oparciu o utworzony model oraz rejestrowanie i przechowywanie wyników jest odbywa się w wydajny, rozproszony sposób, w którym każdy krok może być wizualizowany i w razie potrzeby ręcznie korygowany. Modele można dalej ulepszać, wykorzystując to, czego uczymy się z tych trudniejszych przypadków, w których potrzebna jest korekta dokonana przez człowieka. W tym celu istnieje dedykowany system pętli zwrotnej, który zbiera oznaczone przypadki i inicjuje nowy proces uczenia się.

 

Model działa nawet dla mocno przeładowanych grup drzew, aczkolwiek z mniejszą dokładnością. Potwierdza się znana prawda, że rozwiązanie ML jest tak samo dobre, jak dobry jest zestaw szkoleniowy. W tym konkretnym przypadku adnotacja okazała się bardzo trudna nawet dla ludzkich ekspertów dokonujących adnotowania danych.


Jak możemy pomóc?

W trakcie realizacji projektu zetknęliśmy się z wieloma wyzwaniami typowymi także dla innych zadań praktycznych: „przetłumaczenie” zadania na język algorytmów, analiza i doskonalenie już istniejących rozwiązań, tworzenie odpowiednich danych do szkolenia itd. Mamy nadzieję, że ten blog dał Państwu przydatne i jednocześnie interesujące spojrzenie na świat sztucznej inteligencji i jej zastosowań w biznesie i przemyśle.

Jeśli masz złożony problem, który Twoim zdaniem mógłby zostać rozwiązany przez nasz zespół AI, porozmawiajmy! [1] “Garden city” Vision Is Introduced [11 May 1967] https://eresources.nlb.gov.sg/history/events/a7fac49f-9c96-4030-8709-ce160c58d15c

The post Sztuczna inteligencja wspomagająca zarządzanie zasobami naturalnymi: monitorowanie zieleni miejskiej appeared first on Polaris website.

]]>
UDANA WSPÓŁPRACA W RAMACH ENCLOSED STREAMING https://polarisitgroup.com/pl/2022/04/13/udana-wspolpraca-w-ramach-enclosed-streaming/ Wed, 13 Apr 2022 11:20:47 +0000 https://polarisitgroup.com/?p=5584 Kolejny udany projekt dzięki technologii Enclosed Streaming. Nasz partner agencyjny, Universum 8 Zrt. z siedzibą w Budapeszcie, zakończył 20 marca wielomiesięczny projekt, którego przedmiotem było wydarzenie transmitowane na żywo z wielu lokalizacji. Rodzina produktów Enclosed opracowana przez ISRV Zrt. obejmuje rozwiązania do bezpiecznej transmisji danych oraz streamingu o wysokiej jakości i dostępności. Korzystając z rozwiązań […]

The post UDANA WSPÓŁPRACA W RAMACH ENCLOSED STREAMING appeared first on Polaris website.

]]>
Kolejny udany projekt dzięki technologii Enclosed Streaming.

Nasz partner agencyjny, Universum 8 Zrt. z siedzibą w Budapeszcie, zakończył 20 marca wielomiesięczny projekt, którego przedmiotem było wydarzenie transmitowane na żywo z wielu lokalizacji.

Rodzina produktów Enclosed opracowana przez ISRV Zrt. obejmuje rozwiązania do bezpiecznej transmisji danych oraz streamingu o wysokiej jakości i dostępności. Korzystając z rozwiązań i usług Enclosed Streaming, agencja zrealizowała wyjątkowo udany projekt. Transmisję, nadawaną ze studiów w Dubaju i Budapeszcie, oglądało na żywo kilkadziesiąt tysięcy widzów, a cały program obejrzało prawie 1 milion osób. W trakcie transmisji arcymistrz szachowy Judit Polgár ustanowił rekord świata w grze jednoczesnej na wystawie światowej w Dubaju, gdzie węgierski pawilon Expo 2020 Węgry zapewnił miejsce, a produkcja całego programu została scentralizowana w studiach agencji w Budapeszcie.

Jesteśmy dumni, że mogliśmy wnieść naszą wiedzę do tak prestiżowego projektu. Dzięki doświadczeniu naszych kolegów w dziedzinie streamingu udało nam się stworzyć w Budapeszcie system streamingowy, który pozwolił agencji na nieprzerwaną, prawie 9-godzinną transmisję na żywo w wysokiej jakości, w sposób ciągły i bezpieczny.

Dziękujemy za zaufanie i gratulujemy sukcesu projektu.

The post UDANA WSPÓŁPRACA W RAMACH ENCLOSED STREAMING appeared first on Polaris website.

]]>