This research examines deep learning based image recognition models for beef sirloin classification. The sirloin of beef can be classified as the upper sirloin, the lower sirloin, and the ribeye, whereas during the distribution process they are often simply unified into the sirloin region. In this work, for detailed classification of beef sirloin regions we develop a model that can learn image information in a reasonable computation time using the MobileNet algorithm. In addition, to increase the accuracy of the model we introduce data augmentation methods as well, which amplifies the image data collected during the distribution process. This data augmentation enables to consider a larger size of training data set by which the accuracy of the model can be significantly improved. The data generated during the data proliferation process was tested using the MobileNet algorithm, where the test data set was obtained from the distribution processes in the real-world practice. Through the computational experiences we confirm that the accuracy of the suggested model is up to 83%. We expect that the classification model of this study can contribute to providing a more accurate and detailed information exchange between suppliers and consumers during the distribution process of beef sirloin.
The important thing in the field of deep learning is to find out the appropriate hyper-parameter for image classification. In this study, the main objective is to investigate the performance of various hyper-parameters in a convolutional neural network model based on the image classification problem. The dataset was obtained from the Kaggle dataset. The experiment was conducted through different hyper-parameters. For this proposal, Stochastic Gradient Descent without momentum (SGD), Adaptive Moment Estimation (Adam), Adagrad, Adamax optimizer, and the number of batch sizes (16, 32, 64, 120), and the number of epochs (50, 100, 150) were considered as hyper-parameters to determine the losses and accuracy of a model. In addition, Binary Cross-entropy Loss Function (BCLF) was used for evaluating the performance of a model. In this study, the VGG16 convolutional neural network was used for image classification. Empirical results demonstrated that a model had minimum losses obtain by Adagrad optimizer in the case of 16 batch sizes and 50 epochs. In addition, the SGD with a 32 batch sizes and 150 epochs and the Adam with a 64 batch sizes and 50 epochs had the best performance based on the loss value during the training process. Interestingly, the accuracy was higher while performing the Adagrad and Adamax optimizer with a 120 batch sizes and 150 epochs. In this study, the Adagrad optimizer with a 120 batch sizes and 150 epochs performed slightly better among those optimizers. In addition, an increasing number of epochs can improve the performance of accuracy. It can help to create a broader scope for further experiments on several datasets to perceive the suitable hyper-parameters for the convolutional neural network. Dataset: https://www.kaggle.com/c/dogs-vs-cats/data
PURPOSES : This study uses deep learning image classification models and vehicle-mounted cameras to detect types of pavement distress — such as potholes, spalling, punch-outs, and patching damage — which require urgent maintenance.
METHODS : For the automatic detection of pavement distress, the optimal mount location on a vehicle for a regular action camera was first determined. Using the orthogonal projection of obliquely captured surface images, morphological operations, and multi-blob image processing, candidate distressed pavement images were extracted from road surface images of a 16,036 km in-lane distance. Next, the distressed pavement images classified by experts were trained and tested for evaluation by three deep learning convolutional neural network (CNN) models: GoogLeNet, AlexNet, and VGGNet. The CNN models were image classification tools used to identify and extract the combined features of the target images via deep layers. Here, a data augmentation technique was applied to produce big distress data for training. Third, the dimensions of the detected distressed pavement patches were computed to estimate the quantity of repair materials needed.
RESULTS : It was found that installing cameras 1.8 m above the ground on the exterior rear of the vehicle could provide clear pavement surface images with a resolution of 1 cm per pixel. The sensitivity analysis results of the trained GoogLeNet, AlexNet, and VGGNet models were 93 %, 86 %, and 72 %, respectively, compared to 62.7 % for the dimensional computation. Following readjustment of the image categories in the GoogLeNet model, distress detection sensitivity increased to 94.6 %.
CONCLUSIONS : These findings support urgent maintenance by sending the detected distressed pavement images with the dimensions of the distressed patches and GPS coordinates to local maintenance offices in real-time.
가뭄은 일반적으로 장기간에 걸쳐 물 공급이 부족하여 나타나는 환경 재앙 중 하나로 대부분 넓은 지역에 걸쳐 나타난다. 원격탐사 자료는 이러한 넓은 지역에서 나타나는 가뭄 모니터링에 적합한 방법이다. 따라서 이 연구에서는 강원도 소양호 지역의 Landsat 위성 영상 자료를 활용하여 약 30년(1985-2015) 동안의 소양호 면적을 산출하고 이를 가뭄 패턴과 분석하였다. 특히 ISODATA, Maximum likelihood 및 인공신경망을 활용하여 Landsat 영상을 분류하여 소양호 면적을 산출하였다. 또한 가뭄 패턴을 분석하기 위하여 산출된 호수 면적과 소양호 지역의 강수량을 활용한 표준 강수지수(Standardized Precipitation Index: SPI)와의 상관관계를 분석하였다. 영상 분류 연구 결과, ISODATA, Maximum likelihood 및 인공신경망 방법 중에서 호수 면적 산출의 최적의 방법은 인공신경망 방법임을 알 수 있었다. 또한, 인공신경망 방법을 적용하여 산출한 호수 면적과 SPI와의 상관관계 분석 결과 R 2 값이 0.52를 가진다. 즉, SPI 지수가 낮을 때 호수 면적이 감소하는 것을 알 수 있었다. 즉 호수 면적 변화를 통하여 소양호 지역의 가뭄 상태 감지 및 모니터링이 가능하다는 것을 알 수 있었다. 이 연구는 향후 지역 가뭄 모니터링 프로그램 개발 등에 사용이 가능할 것이다.
아시아에서 가장 큰 칼데라 호수인 천지는 해발 약 2250 m의 백두산 정상에 위치한다. 천지는 높은 해발고도 및 바다와 인접한 환경으로 인해 1년 중 6개월 정도가 눈과 얼음으로 뒤덮여 있다. 천지의 수원은 대부분 지하수로부터 유입되기 때문에 수온과 백두산의 화산활동이 밀접한 관련이 있다. 하지만 2000년대에 들어서며 백두산에 많은 화산활동이 관측되고 있다. 본 연구에서는 유럽우주국(European Space Agency: ESA)에서 제공하는 Sentinel-1 위성 영상 자료를 활용하여 백두산의 겨울철 생성되는 얼음의 면적을 분석하였다. Sentinel-1 위성의 후방산란 영상에서 얼음의 면적을 산출하기 위해 질감 분석 기법을 활용하여 2개의 편파영상에서 20개의 Gray-Level Co-occurrence Matrix(GLCM) 레이어를 생성했다. 면적 산출에 사용된 방법은 GLCM 레이어를 Support Vector Machine (SVM) 알고리즘으로 분류하여 영상에서 얼음의 면적을 산출했다. 또한 산출된 면적은 삼지연 기상관측소에서 획득된 기온자료와 상관관계를 분석하였다. 본 연구는 본격적인 장기간의 시계열 분석에 앞서 얼음의 면적을 산출하는 새로운 방법에 대한 대안을 제시하는 근거로서 활용될 수 있을 것이다.
본 연구에서는 사용자로부터 입력받은 이미지를 분석하여 그에 맞는 음악을 생성, 재생하는 방법을 고안 하였다. 단순히 이미지를 청각화 하는 기술적인 의미 뿐 아니라 사용자의 이미지에 담긴 정서와 의도 또한 담아내는 것을 목표로 하였다. 사용자는 본 연구에서 제안된 어플리케이션에 원하는 물체를 그린다. 인공지능을 통해 이미지가 어떤 물체인지 판별 후, 그 물체와 이어질 수 있는 감정을 대응해 해당 멜로디의 감정과 분위기를 맞출 수 있도록 하였다. 정서에 알맞는 음정(key)를 설정한 뒤, 사용자가 이미지를 그릴 때 입력한 획순을 분석해 이를 기준으로 음계를 추출하여 선율을 생성하였다. 향후 이미지의 청각적 표현을 구현하는 것뿐만 아니라 그림에 대한 예술적인 이해와 의미 있는 음악을 만들어내기 위한 화성법 등의 작곡이론을 연구하여 이미지에 담긴 예술성과 의도를 음악에 담아낼 수 있는 한 가지 방향을 제시할 것이다. 또한 그림을 인식하고 판별하기 위한 인공지능 기술과 그림 분석, 음악 생성 등의 예술 분야를 결합해 공학과 예술의 융합이라는 방향으로서 의미 있는 시도가 될 것이다.
기존 온·습도 센서와 여러 가스센서에 의해 측정 및 제어되는 돈사환경제어시스템에 돼지의 체온조 절행동에 근거한 생체정보를 이용하여 외부 환경정보를 보정한다면 보다 정밀한 축사 환경제어를 할 수 있다. 이를 위한 본 연구는 ICT기술을 접목한 스마트돈사의 정밀환경제어를 위한 기초연구로 획득된 이 미지를 바탕으로 돼지의 행동특성을 3가지로 분류하기 위한 영상처리시스템 알고리즘을 제시하고자 한 다. 공시재료는 실험돈사에서 사육되고 있는 육돈용 자돈(F2, 36~40kg) 3마리를 이용하였으며, 영상처 리를 수행하고자 천정에 설치된 카메라를 통해 획득된 이미지를 이용하였다. 영상처리를 위한 프로그램 은 Visual Studio C과 다양한 영상처리를 위해 개발된 오픈 소스 라이브러리인 OpenCV Library를 이 용하여 구현하였다. 행동분류 알고리즘은 각 돼지의 중심점 데이터, 돼지가 차지하는 면적, 돼지 사이 의 거리를 구하고자 전처리를 수행한 이미지를 RGB 색상계에서 YCrCb 색상계로 변환하였으며, 히스토 그램 평활화(Histogram Equalization), cvBlob함수를 사용하여 Labeling 알고리즘을 수행하였다. 영상 처리 결과, 검증 이미지를 대상으로 군집형태 A로 판단된 결과는 면적만 고려한 것과 거리와 면적을 같 이 고려하였을 때 인식률 95%를 나타내었다. 군집형태 B의 경우 면적만을 고려하였을 경우 65%, 면적 과 거리를 모두 고려하였을 경우 95%로 나타났다. 군집형태 C의 경우 면적만을 고려하였을 경우 25%, 면적과 거리를 모두 고려하였을 경우 100%로 나타나 환경정보 보정자료로 활용이 가능한 것으로 판단 되었다.
본 논문에서는 문턱치 기반의 영상처리 알고리즘을 이용한 인셀(in-shell)헤이즐럿과 셀드(shelled)헤이즐럿의 분류 방법을 제안한다. 헤이즐럿은 외피가 있는 인셀 형태, 내피만 있는 셀드 형태, 내피도 제거된 블랜치드 (blanched)형태, 그리고 모든 껍질을 제거한 후 알맹이를 볶아 판매하는 로스티드(roasted)형태로 제품화 된다. 그러나 생산, 이송과 가공 과정에서 외피가 쉽게 박피되기 때문에 각 단계별로 제품을 판매하기 위해서는 일차적으로 인셀 헤이즐럿과 셀드 헤이즐럿을 구별하여 제품화하는 것이 필요하다. 따라서 본 논문에서는 각 단계의 헤이즐럿 표면에 대한 영상처리 기반 분석을 바탕으로 18개의 문턱치 기반의 선별인자를 얻고 이를 바탕으로 실시간 선별이 가능한, 인셀 및 셀드 헤이즐럿의 분류 알고리즘을 제안한다. 제안한 방법을 선별에 적용한 결과 인셀 헤이즐럿의 선별 정확 도는 98%이며 나머지 셀드 헤이즐럿의 선별 정확도는 94%를 보였다.
본 연구는 자연장의 유형과 표준 이미지에 관한 것이다. 연구를 위하여 시민 549명을 대상으로 조사하였으며 이중에 장례전문가 224명이 포함돼 있다. 서울, 대전, 전주, 부산지역에 거주하는 일반인이 주로 설문에 응답하였다. 실증적분석을 위하여 자연장지의 시설을 장지시설과 추모시설로 나누었으며 이들 중 각각의 시설을 5개의 유형으로 구분하였다. 장지시설은 수목형, 정원형, 화초형, 잔디형, 산골형으로 분류하였으며 추모시설은 탑형, 비석형, 벽체형, 바닥형,실내형으로 분류하였다. 본 연구는 자연장지의 장지시설과 추모시설의 형태별 유형을 분류함으로써 아직 태동기에있는 자연장이 아직은 학술적으로 정립되지 않은 상태에서 나타날 수 있는 제반 문제점을 해결하고 우리나라 실정에맞게 발전시키는 방안을 제시 하였다. 또한 이 연구는 자연장지 표준 경관의 선호도에 대한 조사를 통해 전통적 장사이념을 지켜나가고 새로운 미적 욕구를 충족시키는 방향으로 장사문화를 발전시켜 나감으로써 국민들이 자연장을 선택할수 있는 합리적 방향을 제시했다는 데서 의미를 찾을 수 있다.
영상 콘텐츠는 색상, 질감, 외곽선, 모양 등 다양한 시각적 정보를 포함하고 있다. 이러한 특징 정보들을 사용하여 영상 콘텐츠간의 유사도를 측정할 수 있다. 일반적으로 비교적 정보 추출과 구성이 쉬운 색상 정보와 형태 정보를 사용하여 이미지간의 유사도를 측정하고 있다. 하지만 대부분 사람들은 이미지에 대한 감성을 느끼기 때문에 영상 콘텐츠의 감성분류를 통한 감성 정보를 유사도 측정에 사용한다. 따라서 본 연구에서는 영상의 감성 정보와 색상 및 형태 정보의 비교 값으로 영상 콘텐츠간 유사도를 결정하도록 하였다. 본 연구 결과는 게임 프로그램을 제작하는데 있어서 유사 화면을 검색하는데 많은 도움이 되리라 여겨진다.
조감도는 건축분야에서 준공을 위한 필수 서류 중의 하나이다. 이와는 전혀 별개로 생각되어왔던 수치지형도와 수치정사영상을 이용한 3차원 조감도가 디지털 시대에 중요한 공간인식의 도구로 자리를 잡아오고 있다. 본고는 조감도의 분류체계를 잡아보고 지도학적 애니메이션을 포함한 국내외의 영상정보 조감도 활용사례를 살펴보았다. 실제로 건설사와 지자체를 상대로한 조감도 및 위성영상활용사례에 대한 설문조사와 함께, 일반지도 성과심사의 대상 내용을 분석하여 조감도로서의 위성영상지도의 검수대사여부에 대한 문제점을 살펴보았다.
본 연구는 사용자들이 웹 페이지에서 기본적으로 느끼는 감성을 분석한 후 감성척도(Image Scale)를 구성하여, 웹사이트 디자인과 감성의 관계를 분석하기 위한 연구이다. 웹사이트 감성유형 분류 및 감성척도 연구방법은 다음과 같다. 감성유형 분류는 문헌연구와 설문조사로 이루어 졌으며, 언어전문가 검증과 요인분석으로 이루어졌다. 감성척도 연구는 감성유형 분류 결과를 다차원척도 분석을 통해 이루어졌다. 또한, 웹사이트 디자인과 감성의 관계를 분석하기 위해서는 웹사이트 사용자 감성평가 설문을 통해, 감성유형에 따른 웹사이트 표본을 추출하였다. 추출된 표본을 감성척도 공간에 배치하여 감성과 웹사이트 디자인 관계를 분석하였다. 연구 결과는 다음과 같다. 웹페이지 대표 감성유형은 '상쾌함', '차분함', '고급스러움', '강렬함', '젊음', '독특함', '미래적임' 이다. 다차원척도로 형용사간의 유사성을 분석한 결과 '무겁다-가볍다'와 '부드럽다-딱딱하다'의 축으로 구성된 웹사이트 감성척도 공간을 구성하였다. 또한, 웹사이트 디자인 요소와 감성의 관계는 '딱딱하다-부드럽다' 느낌에서는 색채와 레이아웃의 영향이 가장 두드러졌으며, '가벼운-무거운' 느낌에서는 명도와 색상의 영향을 많이 받는 것으로 나타났다.
본 연구에서는 최대우도법과 인공신경망 모형에 의해 카테고리 분류를 수행하고 각각의 분류 성능을 비교 평가하였다. 인공신경망 모형은 오류역전파 알고리즘을 이용한 것으로서 학습을 통한 은닉층의 최적노드수를 결정하여 카테고리 분류를 수행하도록 하였다. 인공신경망 최적 모형은 입력층의 노드수가 7개, 은닉층의 최적노드수가 18개, 그리고 출력층의 노드수가 5개인 것으로 구성하였다. 위성영상은 1996년에 촬영된 Landsat TM-5 영상을 사용하였고, 최대우도법과 인공신경망 모형에 의한 카테고리 분류를 위하여 각각의 카테고리에 대한 분광특성을 대표하는 지역을 절취하였다. 분류 정확도는 인공신경망 모형에 의한 방법이 90%, 최대우도법이 83%로서, 인공신경망 모형의 분류 성능이 뛰어난 것으로 나타났다. 카테고리 분류 항목인 토지 피복 상태에 따른 분류는 두 가지 방법에서 밭과 주거지의 분류오차가 큰 것으로 나타났다. 특히, 최대우도법에 의한 밭에서의 태만오차는 62.6%로서 매우 큰 값을 보였다. 이는 밭이나 주거지의 특성이 위성 영상 촬영시기에 따라 나지의 형태로 분류되거나 산림, 또는 논으로도 분류되는 경향이 있기 때문인 것으로 보인다. 차후에 카테고리 분류를 위한 각각의 클래스의 보조적인 정보를 추가한다면, 카테고리 분류 향상이 이루어질 것으로 기대된다.
본 논문의 목적은 위성영상 피복분류항목에 대해 통계적 접근법으로부터 산정된 유출곡선지수(CN)를 이용하여 계산 유효우량과 관측 유효우량을 비교함으로써 그 적용성을 검토하는데 있다. 검정을 위한 적용대상지역은 경안천 수위지점 상류유역, 백옥포 수위지점 상류유역, 괴산댐 수위지점 상류유역으로 선정하였으며 각 지역별로 4개의 홍수사상을 선정하였다. CN 값 산정을 위해 2000년에 획득된 Landsat-7 ETM 영상을 이용하여 토지이용도를 구축하였으며 개략
본 연구의 목적은 미국 토양보존국(SCS)의 피복분류에 따른 유출곡선지수(CN) 값을 이용하여 위성영상 피복분류 항목에 대한 CN 값을 제시하는데 있다. 이를 위하여 SCS의 각 피복항목별 정의와 유역의 CN값 산정 방법에 대해서 연구하였다. 위성영상 피복분류 항목에 대한 CN값 산정방법으로 통계적 접근법을 사용하였으며 공간해상도에 따라 대분류, 중분류, 세분류로 구분된 환경부의 위성영상 피복분류항목에 대한 CN 값을 산정하였다. 본 연구의 결과는 향후