Nagyméretű adathalmazok ritka eseményeinek detektálása GPU-n

Egy dinamikusan változó számítástechnikai rendszer teljesítmény- és szolgáltatásbiztonsági modelljének megalkotásához/validálásához/finomhangolásához gyakran a rendszer lenyomatának, azaz a működés közben eltárolt mérési eredmények analitikus vizsgálata a leghatékonyabb eszköz. 

Mivel a nagy rendelkezésre állású számítástechnikai rendszerekben kis számú hibát feltételezünk, a ritka eseményeket statisztikai vagy információelméleti alapokon, automatikus vagy félautomatikus módon detektáló algoritmusok használata ebben a modellfinomítási folyamatban fontos szerephez juthat. 

A számítógépes infrastruktúrákban való adattárolás leginkább hipotézismentes és a mintavételezés jellemzően néhány másodperces frekvenciával működik, ennek köszönhetően az elemzendő adat mennyisége a klasszikus O(n3)-ös algoritmusok ajánlott input méretét meghaladja. 

A nagy méretű adathalmazok elemzését ugyanakkor jellemzően valamilyen célhardveren (FPGA, GPU) futtatott számítások segíthetik, az Önálló laboratórium 1. tárgy keretein belül néhány klasszikus algoritmus (BACON, LOF) GPU-ra történő adatptálása és elemzése történik.

Jelleg: 
Elméleti és gyakorlati
Advisor: 
Ágnes Salánki
TDK lehetőség: 
TDK lehetőség
Megismerhető technológiák: 
OpenCL, CUDA
Állapot: 
Folyamatban