Image recognition is not very effective in the water environment due to multiple factors, such as high scattering and high scattering in the water column. This is why the relevant parameters in the Faster R-CNN network model need to adjust continuously to improve the effectiveness of water detection. The control variable method adjusts the program's learning rate by tuning the network model's parameters. Then, the number of training rounds is adjusted according to the loss function of each round, and finally, we can get the number of matches with the minimum loss function. Based on the experimental results on the dataset, it is shown that the proposed method not only selects the learning rate with the best detection results but also has the strongest robustness and achieves a 96%-99% recognition rate for passenger ships, cargo ships, warships, and bridges compared with other learning rates. Experiments show that the Faster R-CNN network model detects water targets with significant results, and the best network model learning rate parameter is 6×10-3.
본 연구는 무대재배 복숭아 ‘미황’을 대상으로 성숙기간 중 RGB 영상을 취득한 후 다양한 품질 지표를 측정하고 이를 딥 러닝 기술에 적용하여 복숭아 과실 숙도 분류의 가능성을 탐 색하고자 실시하였다. 취득 영상 730개의 데이터를 training 과 validation에 사용하였고, 170개는 최종 테스트 이미지로 사용하였다. 본 연구에서는 딥러닝을 활용한 성숙도 자동 분 류를 위하여 조사된 품질 지표 중 경도, Hue 값, a*값을 최종 선 발하여 이미지를 수동으로 미성숙(immature), 성숙(mature), 과숙(over mature)으로 분류하였다. 이미지 자동 분류는 CNN (Convolutional Neural Networks, 컨볼루션 신경망) 모델 중 에서 이미지 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두 종류의 모델을 사용 하여 복숭아 품질 지표 값의 분류 이미지별 성능을 측정하였 다. 딥러닝을 통한 성숙도 이미지 분석 결과, VGG16과 InceptionV3 모델에서 Hue_left 특성이 각각 87.1%, 83.6% 의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1% 로 Firmness를 기준으로 한 성숙도 분류는 적용성이 낮음을 확인하였다. 추후에 더 많은 종류의 이미지와 다양한 품질 지 표를 가지고 학습이 진행된다면 이전 연구보다 향상된 정확도 와 세밀한 성숙도 판별이 가능할 것으로 판단되었다.
기술 트렌드가 증가함에 따라, 엄청난 양의 데이터가 생성되고 있습니다. 많은 양의 데이터가 소비되는 기술 분야 중 하나는 컴퓨터 비전이다. 인간은 기계와 비교할 때 시각에 영향을 미치는 표정, 조명 또는 시야각과 같은 외부 조건에서도 얼굴이나 사물을 쉽게 감지하고 인식할 수 있다. 그 이유는 그것과 관련된 높은 차원 의 데이터 때문이다. 데이터 차원성은 모든 관측치에서 측정되는 변수의 총 수를 말합니다. 이번 사업은 안 면인식시스템에 적합한 다양한 차원감소 기법을 비교하고 조도가 다양한 안면이미지로 구성된 다양한 데이 터세트로 테스트해 모델의 정확도 향상에 도움이 되는 기법의 앙상블 모델을 제안하고 성능을 측정하는 것 이 목적이다.렉스 배경과 표현. 제안된 앙상블 모델은 주성분 분석(PCA)과 로컬 선형 임베딩(LLE)이라는 두 가지 차원 감소 기술의 혼합에서 벡터를 추출하고, 이를 밀도 높은 컨볼루션 신경망(CNN)을 통해 전달하여 야생 면(LFW) 데이터 세트의 얼굴을 예측한다. 이 모형은 0.95의 검정 정확도와 0.94의 검정 F1 점수로 수행 됩니다. 제안된 시스템은 시스템이 얼굴을 예측할 수 있는 제안된 앙상블 모델과 통합된 웹캠에서 라이브 비 디오 스트림을 캡처하는 플라스크를 사용하여 개발된 웹 앱을 포함한다.
The use of radar-based systems for vessel monitoring is not suitable in populated areas, due to the high electromagnetic emissions. In this paper, a camera based vessel recognition system for application in the context of Vessel Traffic Services (VTS) and Homeland Protection (HP) is proposed. Our approach is designed to extend the functionality of traditional VTS systems by permitting the classification of both cooperative and non-cooperative targets, using camera images only. This allows enhancing the surveillance function in populated areas, where public opinion is strongly concerned about electromagnetic emissions and therefore antennas are suspiciously observed and radars are not allowed. Experiments have been carried out on a publicly available data set of images coming from the ARGOS boat traffic monitoring system in the City of Venice (Italy). The obtained classification accuracy of 89.6% (with 11 different classes of boats) demonstrates the effectiveness of the proposed approach.
This paper presents a vision-based fall detection system to automatically monitor and detect people’s fall accidents, particularly those of elderly people or patients. For video analysis, the system should be able to extract both spatial and temporal features so that the model captures appearance and motion information simultaneously. Our approach is based on 3-dimensional convolutional neural networks, which can learn spatiotemporal features. In addition, we adopts a thermal camera in order to handle several issues regarding usability, day and night surveillance and privacy concerns. We design a pan-tilt camera with two actuators to extend the range of view. Performance is evaluated on our thermal dataset: TCL Fall Detection Dataset. The proposed model achieves 90.2% average clip accuracy which is better than other approaches.