Projekty

POIR.04.01.04-00-0078/20

Opracowanie technologii inteligentnego roju rekonfigurowalnych dronów i jej weryfikacja na przykładzie pokazu dronów i inspekcji farm fotowoltaicznych

Przedmiotem projektu jest technologia inteligentnego roju dronów, cechującego się skalowalnością, niezawodnością i odpornością oraz autonomią i możliwością realizacji różnych przestrzennych konfiguracji dronów. Symulator roju dronów o strukturze przedstawionej poniżej bazuje na środowisku Microsoft AirSim oraz otwartym oprogramowaniu kontrolera lotu PX4 w koncepcji Software In The Loop (SITL)

 

 

Stworzony model matematyczny drona odwzorowuje dokładnie drona fizycznego ponieważ momenty bezwładności modelu są wyznaczone na podstawie modelu CAD i zapisywane w pliku konfiguracyjnym. Środowisko zapewnia możliwość symulacji z zachowaniem wszystkich docelowych protokołów oraz metod komunikacji, jak Mavlink oraz symulowanych źródeł sygnałów zewnętrznych jak GNSS. Wyniki badań symulacyjnych są podstawą testów dla roju dronów fizycznych.
Technologia inteligentnego roju dronów zostanie zweryfikowana w warunkach rzeczywistych poprzez wykorzystanie roju dronów do interaktywnego pokazu roju drone show oraz do inspekcji farm fotowoltaicznych pod kątem możliwych uszkodzeń. W przypadku inspekcji dużych farm fotowoltaicznych zastosowanie roju istotnie skraca czas inspekcji. Opracowanie ww. elementów nastąpi w ramach przeprowadzenia badań przemysłowych w dwóch pierwszych etapach projektu oraz czterech etapach prac rozwojowych. Projekt realizowany jest w ramach konsorcjum z jednostką naukową.

 

WND-RPSL.01.02.00-24-00AC/19-010

Innowacyjny system identyfikacji i reidentyfikacji osób na podstawie obrazu twarzy zarejestrowanego w krótkiej sekwencji wideo w celu podniesienia bezpieczeństwa imprez masowych

Przedmiotem projektu jest:

  1. przeprowadzenie prac badawczych,
  2. opracowanie technologii oraz,
  3. wdrożenie rozwiązania pilotażowego w zakresie inteligentnego systemu nadzoru i analityki wideo mającego na celu podniesienie bezpieczeństwa imprez masowych, odbywających się na obiektach sportowych, stadionach, w halach widowiskowych.

W ramach prac badawczych opracowano algorytmy z zakresu detekcji twarzy na obrazie, normalizacji orientacji twarzy, normalizacji oświetlenia twarzy, wykrywania antropometrycznie istotnych punktów charakterystycznych, redukcji wymiarowości, metryk jawnych i niejawnych reprezentacji cech biometrycznych, klasyfikacji oraz statystyk skuteczności. Tak szeroko zakrojone badania pozwoliły na określenie zależności statystyk skuteczności od zastosowanych rozwiązań technologicznych oraz wariantów tychże, a także od specyfiki monitorowanego otoczenia, jak i dostosowanie do warunków akwizycji zarówno w zakresie otoczenia jak i zachowania monitorowanych osób. Opracowana technologia dotyczy reidentyfikacji osoby na podstawie obrazu twarzy w krótkiej sekwencji wideo pozyskanej na bramce wejściowej oraz/lub pozyskanej z kamery wysoko rozdzielczej lub kamery PTZ. W przypadku technologii przewidzianej do wytworzenia w ramach projektu jej innowacyjność zawiera się w komponencie inteligentnej analityki realizowanej z wykorzystaniem zaawansowanych algorytmów wizji komputerowej, uczenia maszynowego i głębokich sieci neuronowych. Użycie w procesie analizy krótkiego fragmentu nagrania wideo, na którym występuje obraz twarzy reidentyfikowanej osoby, umożliwia kompensację orientacji głowy, mimiki, przesłaniania, a ze względu na ruch osoby (naturalny lub sprowokowany) umożliwia również odtworzenie informacji 3D odnośnie całej twarzy lub tylko jej punktów. Rozwiązanie takie stanowi innowację w skali kraju zarówno w ujęciu procesowym jak i produktowym. Centrum Badawcze Polsko-Japońskiej Akademii Technik Komputerowych posiada kompetencje w zakresie wizyjnych systemów monitoringu pozyskane w wyniki realizacji dwóch projektów dofinansowanych przez NCBiR: Zastosowanie systemów nadzoru wizyjnego do identyfikacji zachowań i osób oraz detekcji sytuacji niebezpiecznych przy pomocy technik biometrycznych i inferencji postaci w 3D z wideo oraz System inteligentnej analizy wideo do rozpoznawania zachowań i sytuacji w sieciach monitoringu.

 

Projekt wpisuje się w cele RPO WSL, ponieważ:

  • wpływa na zwiększone urynkowienie działalności badawczo-rozwojowej,
  • wpływa na zwiększenie aktywności badawczo-rozwojowej przedsiębiorstw,
  • wpływa na wzrost gospodarczy województwa śląskiego,
  • dotyczy wdrożenia innowacyjnej w skali kraju technologii,
  • prowadzi do wzrostu konkurencyjności przedsiębiorstw na rynku polskim,
  • przyczynia się do wzrostu zatrudnienia, co w efekcie wpływa na spadek bezrobocia w województwie śląskim,
  • wpisuje się w obszar technologiczny 4 Technologie informacyjne i telekomunikacyjne w ramach Programu Rozwoju Technologii Województwa Śląskiego na lata 2010-2020.

 

POIR.01.02.00-00-0160/20

Innowacyjna technologia tworzenia wydarzeń multimedialnych opartych o walki dronów z synergią między poziomami: wirtualnym, rozszerzonym i fizycznym
Efektem realizowanego projektu będzie demonstrator ( IX TRL) systemu trójpoziomowych powiązanych synergicznie wydarzeń walk dronów pozwalający na kompleksową organizację innowacyjnej rozrywki.

Opracowywana w projekcie technologia skupia się na stworzeniu całkowicie nowej infrastruktury łączącej środowisko wirtualne z fizycznym dostępem do dronów w modelu DaaS. Technologia składać się będzie z 3 środowisk, łącznie będących prekursorem nowego, rozrywkowego wykorzystania dronów w segmencie konsumenckim – walk dronów. Obecnie na rynku nie występuje zorganizowana i powszechnie dostępna formuła pozwalająca na ich prowadzenie na taką skalę.

Na I poziomie walki odbywać się będą w środowisku wirtualnym, w trybie multiplayer.

Na II poziomie walki realizowane będą w środowisku rzeczywistości rozszerzonej, w którym mogą spotkać się awatary dronów fizycznych z wirtualnymi. W tej wersji wydarzenia widz również może brać czynny udział.

Na III poziomie występują tylko drony fizyczne a walka odbywa się w przestrzeni stadionu, hali lub lotniska i polega na walce drużyn wg ustalonych kryteriów. W tej wersji wydarzenia widz posiada takie same możliwości jak w wersji wirtualnej za wyjątkiem powoływania swojej kamery wirtualnej.

wartość projektu: 12 515 908,65 zł
wkład Funduszy Europejskich: 9 882 100,86 zł

 

 

Pol-Nor/204256/16/2013

Automated Assessment of Joint Synovitis Activity from Medical Ultrasound and Power Examinations using Image Processing and Machine Learning Methods. MEDUSA

Projekt realizowany w ramach Polsko-Norweskiej Współpracy Badawczej, Norweski Mechanizm Finansowy 2009-2014.

Kierownik Projektu: dr Adam Cupek

Kierownik Merytoryczny: prof. dr hab. Konrad Wojciechowski

Projekt jest realizowany przez Konsorcjum w składzie : Politechnika Śląska Wydział AEiI (Lider), Polsko-Japońska Akademia Technik Komputerowych Wydział Zamiejscowy Informatyki w Bytomiu, Instytut Techniki i Aparatury Medycznej ITAM, Helse Forde HF, Sogn og Fjordane University College,

Celem projektu jest stworzenie z wykorzystaniem technik wizji komputerowej i uczenia maszynowego systemu pozwalającego na ocenę stopnia zapalenia reumatoidalnego w stawach palców ręki na podstawie zdjęć USG. Projekt ma charakter interdyscyplinarny, ponieważ dotyczy medycyny i informatyki. Jako należący do nowoczesnych narzędzi diagnostycznych w obszarze zdrowia jest finansowany z funduszu Polsko-Norweskiego. Jakość realizowanej przez system klasyfikacji stopnia zapalenia była weryfikowana przez lekarzy specjalistów zarówno na danych testowych jak i danych bieżących. W stworzonym systemie ocena stopnia zapalenia realizowana była etapami. W pierwszym etapie w obrazie USG znajdowane były obszary skóry i kości. Na tej podstawie identyfikowany był obszar stawu, w którym techniką segmentacji wyznaczany był obszar zapalenia. Stopień zapalenia wyznaczany był na podstawie cech geometrycznych wyznaczonego obszaru. Podstawą do uczenia systemu we wszystkich wymienionych fazach był zbiór obrazów z zaznaczonymi ręcznie przez lekarza obszarami kości, skóry i obszarami zapalenia.

Więcej informacji na stronie: MEDUSA

 

POIG.02.03.00-24-149/13

Interdyscyplinarne laboratoria analizy i syntezy ruchu w formule shareconomy.

Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka, Fundusze Europejskie – dla rozwoju innowacyjnej gospodarki. Inwestujemy w waszą przyszłość. 

Celem projektu było poszerzenie w tym unowocześnienie już posiadanych laboratoriów takich jak: Wielomodalne Laboratorium Ruchu HML (Human Motion Lab), Laboratorium Mikroekspresji HMX (Human Microexpression Lab) Laboratorium Wizyjnej Analizy Ruchu HSL (Human Seeing Lab) Laboratorium Komputerowego Modelowania Twarzy HFML (Human Facial Modeling Lab) oraz stworzenie nowych w obszarze kompetencji CBR PJATK Bytom. Wiodącym założeniem projektu było zapewnienie możliwości udostępniania laboratoriów jednostkom bezpośrednio współpracującym (listy intencyjne) oraz potencjalnie zainteresowanym. W ramach rozwoju już posiadanych laboratoriów doposażono laboratorium HML o 10 kamer nowej generacji  do łącznej liczby 20 kamer NIR co usprawni a jednocześnie przyspieszy proces akwizycji ruchu i wstępnego przetwarzania danych. Stworzono sieć punktów akwizycyjnych ruchu na potrzeby HSL. Umożliwia to pozyskiwanie dużych zbiorów treningowych na potrzeby klasyfikacji wzorców zachowań jak również testowania algorytmów. Uaktualniono oprogramowanie obsługującego laboratoria przez refaktoryzację istniejącej implementacji oraz rozszerzenia jej architektury i funkcjonalności. Refaktoryzacja polegała na uporządkowanie kodu w warstwie usług oraz prace związane z optymalizacją schematu i funkcjonalności bazy danych ukierunkowaną na przyspieszenie operacji wyszukiwawczych. W zakresie architektury wprowadzono rozszerzenia pozwalające na rozproszenie geograficzne samego zbioru danych HMDB oraz na jego współdziałanie z lokalnymi repozytoriami danych medycznych, wydzielonymi i umieszczonymi po stronie jednostek ochrony zdrowia celem ochrony danych wrażliwych. Wraz z wprowadzeniem architektury rozproszonej udoskonalono również mechanizmy synchronizacji danych z kopiami lokalnymi po stronie aplikacji klienckich. Rozbudowa funkcjonalności objęła wsparcie nanoszenia poprawek i modyfikacji zgromadzonych danych oraz ich ewentualnego wersjonowania. Rozwinięta została funkcjonalność prywatnych obszarów użytkowników związanych z posiadanymi przez nich kontami w ramach HMDB. Wprowadzono mechanizmy umożliwiające rozszerzanie systemu o nowe specyficzne procesy analityczne.  Czytaj więcej…

 

Strategmed 1/233221/3/NCBR/2014

Wykorzystanie teletransmisji danych medycznych w celu poprawy jakości życia chorych z niewydolnością serca i redukcji kosztów ich leczenia. MONITEL-HF

Projekt dofinansowany ze środków Narodowego Centrum Badań i Rozwoju.

Kierownik Projektu: prof. Lech Poloński

Projekt jest realizowany przez Konsorcjum w składzie : Śląskie Centrum Chorób Serca w Zabrzu (Lider),Polsko-Japońska Akademia Technik Komputerowych,  Wasko S.A., ENTE sp. z o.o., Kardio-Med Silesia sp z o.o., American Heart of Poland S.A., Instytut Techniki i Aparatury Medycznej ITAM, Novum S.A.

Celem zadań realizowanych przez PJATK było opracowanie koncepcji i realizacja testowej partii 10 koszulek z elektrodami umożliwiającymi pomiar parametrów zdefiniowanych w projekcie. W ramach realizacji zadania dokonano wyczerpującego przeglądu systemów ubieralnych przeznaczonych do akwizycji parametrów życiowych człowieka. Przetestowano trzy rozwiązania, które niestety nie spełniły wymagań stawianych systemowi. Na tej podstawie wytworzenie warstwy pomiarowej systemu zlecono ITAM. Dokonano wyczerpującego przeglądu rozwiązań i materiałów stosowanych w elektrodach systemów ubieralnych. Zaprojektowano i wykonano własny system elektrod zintegrowany w ramach koszulek z modułami pomiarowymi.

 

UOD-DEM-1-183/001

System inteligentnej analizy wideo do rozpoznawania zachowań i sytuacji w sieciach monitoringu. Demonstrator +

Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka Fundusze Europejskie – dla rozwoju innowacyjnej gospodarki Inwestujemy w waszą przyszłość.

Projekt współfinansowany ze środków Narodowego Centrum Badań i Rozwoju.

Kierownik Projektu: dr. Tomasz Czapla 

Projekt jest realizowany przez Konsorcjum w składzie: OBRUM Sp z o.o. ( Lider Projektu) PJATK (Partner Projektu), SilSense Technologies (Partner Projektu)

Celem projektu o akronimie SAVA jest stworzenie i weryfikacja w warunkach rzeczywistych demonstratora prototypowego systemu inteligentnej analizy wideo (IVA), który będzie w stanie rozpoznawać i klasyfikować w warunkach rzeczywistych zachowania i akcje osób oraz grup, oraz identyfikować sytuacje wymagające alertu. Projekt wykorzystuje innowacyjne rezultatach projektu badawczego Zastosowanie systemów nadzoru wizyjnego do identyfikacji zachowań i osób oraz detekcji sytuacji niebezpiecznych przy pomocy technik biometrycznych i inferencji postaci w 3D  z wideo W ramach projektu SAVA dokonano transferu technologii rozpoznawania zachowań oraz związanych z nią: techniki rozszerzonego śledzenia obiektów w ruchu, nowej reprezentacji ruchu oraz metod uczących się, z projektu Zastosowanie systemów nadzoru wizyjnego do identyfikacji zachowań i osób oraz detekcji sytuacji niebezpiecznych przy pomocy technik biometrycznych i inferencji postaci w 3D z wideo do prototypu użytkowego na 9-tym poziomie gotowości technologicznej. Prototyp SAVA będzie działać w chmurze i będzie bardziej zaawansowany niż istniejący prototyp badawczy oraz znacznie szybszy, umożliwiając wykonywanie funkcji rozpoznawania  wielokrotnie szybciej niż czas rzeczywisty wideo, co pozwoli na  obsługę wielu kamer jednocześnie. Czytaj więcej…

Innotech K2/IN2/50/182645/NCBR/12

Nowe technologie wysokorozdzielczej akwizycji i animacji mimiki twarzy.

Projekt dofinansowany ze środków Narodowego Centrum Badań i Rozwoju.

Kierownik Projektu: prof. dr hab. Konrad Wojciechowski 

Celem projektu było opracowanie technologii przenoszenia (ang. retargeting) mimiki twarzy aktora na wysokorozdzielczą siatkę twarzy oraz fotogrametryczna technologia skanowania obiektów 3D. Opracowano dwie alternatywne technologie. W pierwszej z technologii retargetingu mimika twarzy aktora pozyskiwana jest z wykorzystaniem systemu markerowego w drugiej do jej pozyskania wykorzystywany jest system synchronizowanych sprzętowo kamer wideo. Wysokorozdzielcza siatka twarzy, na którą przenoszona jest mimika aktora, różna w ogólnym przypadku od siatki twarzy aktora, pozyskiwana jest jednorazowo, statycznie, z wykorzystaniem skanera 3D lub systemu synchronizowanych aparatów fotograficznych realizujących fotogrametryczną technologię skanowania unikalną w skali kraju. Opracowane technologie mają postać oprogramowania wspomagającego a w niektórych przypadkach automatyzującego pracę animatorów postaci bohaterów gier komputerowych. Dopuszczając interwencję ze strony animatora jedna z opracowanych technologii retargetingu umożliwia przenoszenie na siatkę trójwymiarową mimiki zarejestrowanej w materiale filmowym, czyli tylko z jednej kamery. Ten aspekt technologii jest unikalny na rynku narzędzi tworzenia gier komputerowych. Opracowana technologia redukuje radykalnie (rzędu 10^-2) czas pracy animatora.

Więcej informacji jest dostępnych na stronie: The Farm 51

 

PBS 178438

Kostium do akwizycji ruchu człowieka oparty na sensorach IMU z oprogramowaniem gromadzenia, wizualizacji oraz analizy danych.

Projekt dofinansowany ze środków Narodowego Centrum Badań i Rozwoju.

Kierownik Projektu: prof. dr hab. Konrad Wojciechowski

Projekt był realizowany przez Konsorcjum w składzie: Polsko-Japońska Akademia Technik Komputerowych (Lider), Politechnika Śląska w Gliwicach Wydział AEI , Instytut Włókiennictwa w Łodzi.

Celem praktycznym projektu było stworzenie poręcznego, ekonomicznego i łatwego do profilowania na różne zastosowania systemu akwizycji ruchu człowieka opartego na wszytych, w niekrępujący ruchów kostium, energooszczędnych miniaturowych modułach IMU (do 50 szt) połączonych jedną magistralą CAN z koncentratorem i podobnie zasilanych jednym przewodem. Modułowe oprogramowanie systemowe posiada funkcjonalności podstawowe takie jak gromadzenie danych ruchu ich wizualizację, analizy oraz możliwość tworzenia za pomocą wtyczek nowych funkcjonalności. Liczba modułów i ich rozmieszczenie ustalane jest odpowiednio do konkretnego zdania. W wersji maksymalnej umożliwi akwizycję ruchu całej postaci. W wersji minimalnej możliwa jest akwizycja ruchu i analiza pojedynczego stawu. Pozyskane dane ruchu są przetwarzane na poziomach podstawowym i średnim w każdym z modułów lub zapisywane, jako dane surowe i przetwarzane w komputerze zewnętrznym z zainstalowanym oprogramowaniem obsługującym cały system. Zrealizowane w ramach projektu prace teoretyczne dotyczyły modyfikacji, implementacji i testowania algorytmów integracji danych z trójosiowego akcelerometru, żyroskopu i magnetometru.

UMO-2011/01/BST6/06988 

Diagnoza wybranych nieprawidłowości chodu na podstawie wielomodalnej analizy ruchu

Projekt dofinansowany ze środków Narodowego Centrum Nauki

Kierownik Projektu: dr hab. Adam Świtoński

Celem projektu było zweryfikowanie przydatności wielomodalnych danych ruchu w diagnostyce wybranych chorób.

W ramach projektu prowadzone były prace w zakresie opracowania metodologii wykorzystującej wielomodalne dane ruchu, w zestawieniu eksperymentalnym zawierające zsynchronizowane dane kinematyczne, sił reakcji podłoża, elektromiografii dynamicznej (EMG) oraz wideo, wzbogacone o odpowiednie algorytmy komputerowego przetwarzania i rozpoznawania dla potrzeb wspomagania diagnostyki nieprawidłowości chodu. Skupione są one wokół: a) oceny jakości pozyskanych danych, b) przetwarzania danych wielomodalnych w celu uzyskania cech wspomagających diagnostykę rozpatrywanych schorzeń, c) rozwoju algorytmów analizy i klasyfikacji wielomodalnych wzorców ruchu, d) oceny statystycznej związków pomiędzy cechami danych wielomodalnych oraz klinicznym stanem pacjenta dla rozpatrywanych nieprawidłowości chodu.

 

4757/B/T02/2011/40

Redukcja wymiarowości szeregów czasowych póz oraz odkrywanie rozmaitości, do których należą dla celów klasteryzacji, klasyfikacji i wizualizacji ruchu.

Projekt dofinansowany ze środków Narodowego Centrum Nauki

Kierownik Projektu: prof. dr hab. Andrzej Polański

Ogólnym tematem projektu były badania nad redukcją wymiarowości danych reprezentujących konfigurację/pozę postaci oraz ruch postaci ludzkiej. Badania nad redukcją wymiarowości napędzane są dwoma czynnikami: I) dążeniem do uzyskania danych zredukowanych do 3D lub 2D co pozwala na ich wizualizację i percepcję, II) uproszczeniem i podniesieniem efektywności klasyfikacji. Aspekt klasyfikacji jest dominujący w obszarze redukcji danych pozy i ruchu stąd w realizacji projektu poświecono mu sporo uwagi. Celami naukowymi projektu było testowanie modyfikacje i doskonalenie algorytmów redukcji wymiarowości póz i szeregów czasowych póz, opracowanie wielorozdzielczej reprezentacji ruchu z wykorzystaniem schematu liftingu oraz zastosowanie uzyskanych wyników w klasteryzacji klasyfikacji i wizualizacji ruchu.

 

2892/B/T02/2011/40

Opracowanie ilościowych miar ruchu, racjonalizujących, na podstawie wielomodalnego pomiaru ruchu, subiektywne kryteria UPDRS w celu polepszenia diagnostyki przed i po wszczepieniu stymulatora DBS u pacjentów z chorobą Parkinsona.

Projekt dofinansowany ze środków Narodowego Centrum Nauki

Kierownik Projektu: prof. dr hab. Andrzej Polański

Celem projektu było opracowanie miar ruchu pozwalających na obiektywizację diagnostyki pacjentów z chorobą Parkinsona w tym racjonalizację terapii lekowej i stymulacyjnej. Wielomodalne dane z realizacji zadań ruchowych zostały zebrane dla 20 pacjentów z chorobą Parkinsona i wszczepionym stymulatorem DBS. Pacjenci w stanach MedON, MedOFF, StimON, StimOFF realizowali opracowane przez specjalistów zdania ruchowe.

Oceny realizacji zadań ruchowych wydane przez lekarza neurologa w skali UPDRS były korelowane z różnymi indeksami ruchu. Badano następujące indeksy: ASA (ang. Arm Swing Asymetry), ASSS (ang. Arm Swing Size Symmetry), DI (ang. Decomposition Indeks), SLA (ang. Stride Length Asymmetry), T (ang. Tremor), FoG (ang. Freezing of Gait). Pokazano, że indeks DI posiada najwyższy współczynnik korelacji z ocenami z formularza UPDRS. Wynikiem projektu jest baza wielomodalnych danych ruchu pacjentów z chorobą Parkinsona. Dane zawarte w bazie mogą stanowić podstawę do kontynuowania badań nad ruchem pacjentów z chorobą podstawę Parkinsona. Uzyskane wyniki mogą być również podstawą do automatycznego dozowania dopaminy oraz wyboru nastaw stymulatora u pacjentów z DBS.

 

OR 00002111

Zastosowanie systemów nadzoru wizyjnego do identyfikacji zachowań i osób oraz detekcji sytuacji niebezpiecznych przy pomocy technik biometrycznych i inferencji postaci w 3D z wideo.

Projekt dofinansowany ze środków Narodowego Centrum Badań i Rozwoju.

Kierownik Projektu: dr. Henryk Josiński

Celem projektu było opracowanie w skali laboratoryjnej systemu nadzoru wizyjnego typu IVA (ang. Inteligent Video Analytics) W pracach skupiono się nad najtrudniejszymi do uzyskania w systemach nadzoru wizyjnego funkcjonalnościami takimi jak: i)rozpoznawanie osoby na podstawie chodu, ii)rozpoznawania zachowań pojedynczych osób takich jak przykładowo: chód, bieg, upadek, podskoki, ii)rozpoznawania interakcji pomiędzy osobami i grupami osób. Algorytmy realizujące wymagane funkcjonalności tworzono w dwóch nurtach. W pierwszym danymi wejściowymi były bezpośrednio dane wideo. W nurcie drugim dane wideo z jednej lub dwóch kamer stanowiły podstawę od inferencji postaci 3D której konfiguracja przestrzenna stanowiła dopiero podstawę do klasyfikacji zachowania. Uzyskanie założonych funkcjonalności wymagało opracowania szeregu narzędzi podstawowych wśród nich systemu adnotacji wykorzystywanego w tworzeniu próbki uczącej klasyfikator. Podstawą wszystkich prac jak również testów były nagrania z czterech kamer HD PTZ umieszczonych na rynku w Bytomiu. Na potrzeby projektu utworzono bazę z ok. 3000 godzin nagrań, z czego adnotowanych jest ok. 3500 zdarzeń. Baza ta może stanowić podstawę dla dalszych prac z zakresie systemów nadzoru wizyjnego.

 

N N518 427236

Testowanie i rozwój algorytmów klasyfikacji na podstawie obrazów hiperspektralnych w diagnostyce fotodynamicznej
i diagnostyce dna oka. 

Projekt dofinansowany ze środków Ministerstwa Nauki i Szkolnictwa Wyższego.

Kierownik Projektu: dr hab. Adam Świtoński

Celem projektu były badania możliwości i korzyści zastosowania obrazowania wielospektralnego i hiperspektralnego w diagnostyce okulistycznej. Prowadzone prace w ramach projektu były skupione wokół kilku wzajemnie uzupełniających się aspektów takich jak: i)opracowanie narzędzi informatycznych wspomagających prace naukowe w tym gromadzenie, przetwarzanie i analizę obrazów wielospektralnych, ii)konstrukcja urządzenia do wielospektralnego obrazowania struktur gałki ocznej i przeprowadzenie akwizycji w warunkach klinicznych, iii)prace naukowo-badawcze związane z testowaniem i rozwojem metod  klasyfikacji i przetwarzania obrazów wielo- i hiperspektralnych. Badana prowadzono we współpracy z Kliniką Okulistyczną Akademii Medycznej we Wrocławiu przeprowadzono wielospektralną akwizycję struktur gałki ocznej. Wyselekcjonowano następujące jednostki chorobowe: zapalenie błony naczyniowej odcinka tylnego i przedniego, zaćma, jaskra i retinopatia cukrzycowa. W całości, obejmując diagnozę fotodynamiczną i okulistyczną, zgromadzona baza zdjęć wielospektralnych zawiera 109 obrazów.  Czytaj więcej…

UDA-POIG.01.03.01-14-138/08-02

System wraz z biblioteką modułów dla zaawansowanej analizy i interaktywnej syntezy postaci ludzkiej.

Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka 2007-2013, Działanie 1.3, Poddziałanie 1.3.1

Kierownik Projektu: prof. dr hab. Konrad Wojciechowski

Bezpośrednim celem projektu było wprowadzenie innowacyjnych usług w zakresie ortopedii, stworzenie podstaw dla dalszych badań w zakresie biometrii ruchu jak również zwiększenie konkurencyjności przedsiębiorstw produkujących gry komputerowe i reklamy. Jednym z istotnych elementów projektu było utworzenie zaawansowanego technologicznie laboratorium wielomodalnego pomiaru ruchu. W skład systemu wchodzą niezależne moduły do badań: kinematograficznych, elektromiograficznych, dynamometrycznych, wideo oraz moduły umożliwiające rejestrację oraz wykonywanie kopii zapasowych danych z poszczególnych modułów. Dane pochodzące z różnych modułów są synchronizowane względem modułu kinematyki.

Więcej informacji znajduje się na stronie: PJWSTK

 

R13 046 02

System informatyczny dla potrzeb optycznego obrazowania tkanek i wspomagania diagnostyczno prognostycznego w wybranych chorobach nowotworowych. 

Projekt dofinansowany ze środków Ministerstwa Nauki i Szkolnictwa Wyższego. 

Kierownik Projektu: prof. dr hab. Konrad Wojciechowski 

Celem projektu było stworzenie systemu informatycznego dla potrzeb optycznego wielospektralnego obrazowania tkanek metodą diagnostyki fotodynamicznej opartej na analizie widma fluoroscencyjnego po systemowym lub miejscowym podaniu fotouczulacza. Obrazowanie wielospektralne w połączeniu z optymalną konfiguracją i parametryzacją modułów przetwarzania obrazu umożliwia wspomagania diagnostyczno-prognostyczne w wybranych chorobach nowotworowych w tym wczesne wykrywanie stanów przed nowotworowych, dokładniejsze określanie granicy pomiędzy tkankami zdrowymi a patologicznymi, skrócenie czasu podjęcia decyzji o sposobie leczenia, ocenę skuteczności leczenia, nieinwazyjną kontrolę i dalszą obserwację pacjentów po leczeniu, wczesną lokalizację nawrotu po leczeniu. Czytaj więcej…

 

Europejski FUndusz Rozwoju Regionalnego
© 2015 bytom.pja.edu.pl Wszelkie prawa zastrzeżone.
PJATK: Warszawa / Gdańsk