РОЗРОБКА АЛГОРИТМУ РОЗПІЗНАВАННЯ РУХІВ ОБ’ЄКТІВ ЗА ДОПОМОГОЮ НЕЙРОННОЇ МЕРЕЖІ ДЛЯ СИСТЕМИ ВІДЕОНАГЛЯДУ

Ключові слова: система відеонагляду; теорія розпізнавання образів; методи розпізнавання рухів об’єктів; нейронні мережі

Анотація

Дана стаття присвячена проблемі захисту приватної власності об’єкта, що знаходиться під охороною, а саме: пропонується алгоритм розпізнавання рухів об’єктів за допомогою нейронної мережі для системи відеонагляду.  Здатність сприйняття зовнішнього світу у формі образів дозволяє з певною вірогідністю досліджувати властивості нескінченного числа об’єктів на підставі ознайомлення з кінцевим їх числом, а об’єктивний характер основної властивості образів дозволяє моделювати процес їх розпізнавання На підставі аналізу наукової літератури визначені основні дефініції теорії розпізнавання образів, а саме «образ», «ознака», «вектор-реалізація». Досліджені підходи, методи та технології розпізнавання рухів об’єктів, виділені їх якісні характеристики та недоліки. Визначено, що штучні нейронні мережі є найбільш ефективним методом для розв’язання задачі розпізнавання рухів об’єктів завдяки точності результату, простоті та швидкодії. На підставі структурної схеми комплексного алгоритму обробки і аналізу зображень розроблено алгоритм розпізнавання рухів об’єктів за допомогою нейронної мережі для системи відеонагляду.

Завантаження

Дані завантаження ще не доступні.

Посилання

Machine Learning - Machine Learning https://www.it.ua/knowledge-base/technology-innovation/machine-learning

L. Shapiro, J. Stockman, J. Computer vision. with English. - M .: BINOM. Laboratory of knowledge. - 2006. - 752 p.

Dovbysh AS Fundamentals of the theory of pattern recognition: textbook. tool. : at 2 am / AS Dovbysh, IV Shelekhov. - Sumy: Sumy State University, 2015. - Part 1. - 109 p. http://kist.ntu.edu.ua/textPhD/tro2.pdf

AV Agarkov Application of the structural description of images for solving the problems of video sequence intellectual analysis / А.V. Agarkov // Artificial Intelligence, No. 1, 2017. - P. 17 - 28.

http://dspace.nbuv.gov.ua/bitstream/handle/123456789/132097/02-Agarkov.pdf?sequence=1

M. Droogenbroeck ViBe - a powerful technique for background detection and subtraction in video sequences, 2014 https://orbi.uliege.be/bitstream/2268/157176/1/VanDroogenbroeck2014ViBe.pdf

K.Kavitha, A.Tejaswini VIBE: Background Detection and Subtraction for Image Sequences in Video, International Journal of Computer Science and Information Technologies, Vol. 3 (5), 2012. https://pdfs.semanticscholar.org/7b5d/3fa11eacaceb752f7c6cf3e92032ac716d26.pdf

RS Kotvitsky, GV Saryboga System of technical vision in problems of stabilization of unmanned aerial vehicle / "Young scientist", No. 5 (32), 2016 - P. 234 - 237. http: // molodyvcheny. in.ua/files/journal/2016/5/58.pdf

OV Lipanov, MV Fesenko Analysis of methods of object recognition in systems of analysis of visual information. Lipanov, MV Fesenko // Information Processing Systems, Issue 3 (101), Volume 2, 2012. - P. 78 - 82. http://www.hups.mil.gov.ua/periodic-app/article/9580/soi_2012_3_60.pdf

Mahrovskaya NA, Bezrukava VG, Pogromskaya GS Analysis of algorithms of pattern recognition for optimizing the solution of the problem of object search in video series / “Young scientist”, No. 5 (32), 2016 - P. 238 - 241. http://molodyvcheny.in.ua/files/journal/2016/5/59.pdf

Szeliski R. Computer Vision: Algorithms and Applications. http://szeliski.org/Book/drafts/SzeliskiBook_20100903_draft.pdf

M.A. Novotarskiy, B.B. Nesterenko. Artificial neural networks: calculations // Proceedings of the Institute of Mathematics of NAS of Ukraine. - T50. - Kyiv: Institute of Mathematics, NAS of Ukraine, 2004. - 408 p. http://www.immsp.kiev.ua/postgraduate/Biblioteka_trudy/ShtuchnNejronMeregNester2004.pdf


Переглядів анотації: 37
Завантажень PDF: 35
Опубліковано
2019-12-26
Як цитувати
[1]
V. Petlitsky, S. Shevchenko, і N. Mazur, «РОЗРОБКА АЛГОРИТМУ РОЗПІЗНАВАННЯ РУХІВ ОБ’ЄКТІВ ЗА ДОПОМОГОЮ НЕЙРОННОЇ МЕРЕЖІ ДЛЯ СИСТЕМИ ВІДЕОНАГЛЯДУ», Кібербезпека: освіта, наука, техніка, вип. 2, вип. 6, с. 105-111, Груд 2019.