W ramach prac badawczych realizowanych w obszarze zastosowań metod AI, VR i IoE w diagnostyce, nadzorowaniu i sterowaniu procesów w Przemyśle 4.0 opublikowany został artykuł w Advances in Intelligent Systems and Computing. Prace badawcze w tym zakresie realizowane były w ramach zadania 2 projektu „Regionalne Centrum Doskonałości Automatyki i Robotyki, Informatyki, Elektrotechniki, Elektroniki oraz Telekomunikacji Politechniki Rzeszowskiej"
Dymora P., Mazurek M: Performance Assessment of Selected Techniques and Methods Detecting Duplicates in Data Warehouses. Theory and Applications of Dependable Computer Systems. DepCoS-RELCOMEX 2020. Advances in Intelligent Systems and Computing, vol 1173. Springer, Cham
Abstrakt
Istotnym i aktualnym problemem badawczym, a także praktycznym, jest problem deduplikacji w bazach danych. Rozwiązanie tego problemu ma zastosowanie np. w kontekście następujących sytuacji, w których przechowywane są pozornie różne rekordy, które w rzeczywistości odnoszą się do tego samego bytu (obiektów, osób itp.) w świecie rzeczywistym. W takich przypadkach celem jest identyfikacja i uzgodnienie takich rekordów lub wyeliminowanie duplikacji. W artykule opisano algorytmy wyszukiwania duplikatów i zaimplementowano je w opracowanym magazynie danych. Przeprowadzono również testy wydajności i skuteczności dla przykładowych danych zawartych w poszczególnych tabelach magazynu. Praca ma na celu analizę istniejących metodologii wykrywania podobieństw i duplikatów w magazynach danych, fizyczną implementację algorytmów oraz przetestowanie ich skuteczności i wydajności. Duża skala danych tworzonych przez urządzenia IoT prowadzi do zużycia pasma komunikacyjnego i przestrzeni dyskowej, ponieważ dane są wysoce redundantne. Dlatego też konieczna jest prawidłowa deduplikacja informacji w celu wyeliminowania danych redundantnych.