ПОТЕНЦІАЛ ЗАСТОСУВАННЯ РІЗНИХ МЕТОДІВ ШТУЧНОГО ІНТЕЛЕКТУ У ЗАДАЧІ РОЗПІЗНАВАННЯ КРЕСЛЕНЬ ТА ТРАНСФОРМАЦІЇ 2D→3D

Ключові слова: 2D; 3D; розпізнавання; штучний інтелект; штучні нейронні мережі; креслення; двовимірні моделі; згорткова нейронна мережа; CNN; тривимірні моделі.

Анотація

У статті проведено аналіз основних методів штучного інтелекту у задачі розпізнавання креслень та трансформації 2D моделі у 3D модель. Із стрімким розвитком інформаційних технологій, і, особливо, в прагненні максимально реалістичного відтворити проект майбутнього виробу/будинку та інших об’єктів в цифровому вигляді, дуже гостро постає питання розпізнавання креслень та трансформації 2D моделі у 3D модель.  В міру зростання кількості та складності завдань, що виникають при оцифруванні існуючої на паперових носіях креслярсько-технічної документації, та паралельної необхідності трансформації двовимірних моделей у тривимірні моделі для візуалізації у тривимірному просторі складних об’єктів, дослідники звернули увагу на можливості застосування технологій та систем штучного інтелекту у процесах розпізнавання креслень та трансформації двовимірних моделей у тривимірні моделі. Перші дослідження, присвячені застосуванню штучного інтелекту в задачах розпізнавання зображень на кресленнях, почали з’являтися ще на початку 90-х років 20-го століття. Аналіз підходів для розпізнавання креслень дозволяє розглянути потенціал застосування різних методів штучного інтелекту в задачі розпізнавання креслень та трансформації двовимірних моделей у тривимірні моделі. Проаналізувати потенціал покращення роботи CNN, а також її архітектури, не вдаючись до екстенсивного розширення архітектури згорткової нейронної мережі (CNN), а також враховуючи необхідність вирішення завдання, пов’язаного з логічною векторизацією розпізнаних за допомогою згорткової нейронної мережі примітивів та/або умовно-графічних позначень на кресленнях для виконання трансформації 2D в 3D. В подальшому це стимулює дослідників шукати альтернативні методи та моделі для систем розпізнавання зображень на кресленнях.

Посилання

Spitz, A. L., Dengel, A. (1995). Document Analysis Systems. У Proceedings of the International Association for Pattern Recognition Workshop. WORLD SCIENTIFIC. https://doi.org/10.1142/9789812797933

Pasternak, B. (1994). Processing Imprecise and Structural Distorted Line Drawings by and Adaptable Drawing Interpretation Kernel. In IAPR Workshop on Document Analysis Systems (pp. 349–363).

Messmer, B. T., Bunke, H. (1996). Automatic learning and recognition of graphical symbols in engineering drawings. In Graphics Recognition Methods and Applications (с. 123–134). Springer Berlin Heidelberg. https://doi.org/10.1007/3-540-61226-2_11

Castellano, G., Vessio, G. (2021). Deep learning approaches to pattern extraction and recognition in paintings and drawings: an overview. Neural Comput & Applic, 33, 12263–12282. https://doi.org/10.1007/s00521-021-05893-z.

Poprotska, D. I. (2020). Information system of drawing recognition. In Status, achievements and prospects of information systems and technologies (p. 166–168). Odessa national Acad. food. technologies, NNI computer. of systems and technologies "Industry 4.0" named after P. M. Platonova, Fac. computer. engineering, programming and cyber defense.

Kovalchuk, S., Mazurets, O. V. (2008). Analyzing the effectiveness of technology use Seo, J., Park, H., Choo, S. (2020). Inference of Drawing Elements and Space Usage on Architectural Drawings Using Semantic Segmentation. Applied Sciences, 10(20), 7347. https://doi.org/10.3390/app10207347.

Shaaban, A. M., Salem, N. M., Al-atabany, W. I. (2020) A Semantic-based Scene segmentation using convolutional neural networks. AEU - International Journal of Electronics and Communications, 125. https://doi.org/10.1016/j.aeue.2020.153364.

Fonseca, M. J., Jorge, J. A. (б. д.). Using fuzzy logic to recognize geometric shapes interactively. In Ninth IEEE International Conference on Fuzzy Systems. FUZZ-IEEE 2000. Soft Computing in the Information Age. IEEE. https://doi.org/10.1109/fuzzy.2000.838674.

Adamik, M., Goga, J., Pavlovicova, J., Babinec, A., Sekaj, I. (2022). Fast robotic pencil drawing based on image evolution by means of genetic algorithm. Robotics and Autonomous Systems, 148, 103912. https://doi.org/10.1016/j.robot.2021.103912.

Wang, Z., Latif, M. (2007). Reconstruction of 3D Solid Models Using Fuzzy Logic Recognition. Lecture Notes in Engineering and Computer Science, 2165.

Jin, B., Xu, S., Geng, W. (2018). Learning to sketch human facial portraits using personal styles by case-based reasoning. Multimed Tools Appl, 77, 5417–5441. https://doi.org/10.1007/s11042-017-4457-8

Wang, Z., Tsumura, K., Saito, Y. (1994). Recognition of Hand-written Mechanical Drawing by Multi-Level Neural Network (MLNN). Advancement of Intelligent Production, Elsevier, 1-6. https://doi.org/10.1016/B978-0-444-81901-7.50015-3.

Kubyk, O., Mazurets, O., Kovalchuk, S. (2008). Decompositional recognition of symbolic information from drawings using artificial intelligence technologies. Mathematical and computer modeling. Series: Technical sciences, 109-119.

Zehtaban, L., Elazhary, O., Roller, D. (2016). A framework for similarity recognition of CAD models. Journal of Computational Design and Engineering, 3(3), 274-285. https://doi.org/10.1016/j.jcde.2016.04.002.

Wang, Z., Latif, M. (2007). Reconstruction of 3D Solid Models Using Fuzzy Logic Recognition. Proceedings of the World Congress on Engineering, 1, 37-42.

Governi, L., Furferi, R., Palai, M., Volpe, Y. (2013). 3D Geometry Reconstruction from Orthographic Views: a Method Based on 3D Image Processing and Data Fit-ting. Computers in Industry, 64, 1290-1300.

Nagendra, I.V., Gujar, U.G. (1988). 3D Objects from 2D orthographic views – A Survey. Computer & Graphics, 12(1), 111 – 114.


Переглядів анотації: 43
Завантажень PDF: 49
Опубліковано
2022-09-29
Як цитувати
Khorolska, K. (2022). ПОТЕНЦІАЛ ЗАСТОСУВАННЯ РІЗНИХ МЕТОДІВ ШТУЧНОГО ІНТЕЛЕКТУ У ЗАДАЧІ РОЗПІЗНАВАННЯ КРЕСЛЕНЬ ТА ТРАНСФОРМАЦІЇ 2D→3D. Електронне фахове наукове видання "Кібербезпека: освіта, наука, техніка", 1(17), 21-30. https://doi.org/10.28925/2663-4023.2022.17.2130