This research examines deep learning based image recognition models for beef sirloin classification. The sirloin of beef can be classified as the upper sirloin, the lower sirloin, and the ribeye, whereas during the distribution process they are often simply unified into the sirloin region. In this work, for detailed classification of beef sirloin regions we develop a model that can learn image information in a reasonable computation time using the MobileNet algorithm. In addition, to increase the accuracy of the model we introduce data augmentation methods as well, which amplifies the image data collected during the distribution process. This data augmentation enables to consider a larger size of training data set by which the accuracy of the model can be significantly improved. The data generated during the data proliferation process was tested using the MobileNet algorithm, where the test data set was obtained from the distribution processes in the real-world practice. Through the computational experiences we confirm that the accuracy of the suggested model is up to 83%. We expect that the classification model of this study can contribute to providing a more accurate and detailed information exchange between suppliers and consumers during the distribution process of beef sirloin.
PURPOSES : This study uses deep learning image classification models and vehicle-mounted cameras to detect types of pavement distress — such as potholes, spalling, punch-outs, and patching damage — which require urgent maintenance.
METHODS : For the automatic detection of pavement distress, the optimal mount location on a vehicle for a regular action camera was first determined. Using the orthogonal projection of obliquely captured surface images, morphological operations, and multi-blob image processing, candidate distressed pavement images were extracted from road surface images of a 16,036 km in-lane distance. Next, the distressed pavement images classified by experts were trained and tested for evaluation by three deep learning convolutional neural network (CNN) models: GoogLeNet, AlexNet, and VGGNet. The CNN models were image classification tools used to identify and extract the combined features of the target images via deep layers. Here, a data augmentation technique was applied to produce big distress data for training. Third, the dimensions of the detected distressed pavement patches were computed to estimate the quantity of repair materials needed.
RESULTS : It was found that installing cameras 1.8 m above the ground on the exterior rear of the vehicle could provide clear pavement surface images with a resolution of 1 cm per pixel. The sensitivity analysis results of the trained GoogLeNet, AlexNet, and VGGNet models were 93 %, 86 %, and 72 %, respectively, compared to 62.7 % for the dimensional computation. Following readjustment of the image categories in the GoogLeNet model, distress detection sensitivity increased to 94.6 %.
CONCLUSIONS : These findings support urgent maintenance by sending the detected distressed pavement images with the dimensions of the distressed patches and GPS coordinates to local maintenance offices in real-time.
본 연구에서는 사용자로부터 입력받은 이미지를 분석하여 그에 맞는 음악을 생성, 재생하는 방법을 고안 하였다. 단순히 이미지를 청각화 하는 기술적인 의미 뿐 아니라 사용자의 이미지에 담긴 정서와 의도 또한 담아내는 것을 목표로 하였다. 사용자는 본 연구에서 제안된 어플리케이션에 원하는 물체를 그린다. 인공지능을 통해 이미지가 어떤 물체인지 판별 후, 그 물체와 이어질 수 있는 감정을 대응해 해당 멜로디의 감정과 분위기를 맞출 수 있도록 하였다. 정서에 알맞는 음정(key)를 설정한 뒤, 사용자가 이미지를 그릴 때 입력한 획순을 분석해 이를 기준으로 음계를 추출하여 선율을 생성하였다. 향후 이미지의 청각적 표현을 구현하는 것뿐만 아니라 그림에 대한 예술적인 이해와 의미 있는 음악을 만들어내기 위한 화성법 등의 작곡이론을 연구하여 이미지에 담긴 예술성과 의도를 음악에 담아낼 수 있는 한 가지 방향을 제시할 것이다. 또한 그림을 인식하고 판별하기 위한 인공지능 기술과 그림 분석, 음악 생성 등의 예술 분야를 결합해 공학과 예술의 융합이라는 방향으로서 의미 있는 시도가 될 것이다.
영상 콘텐츠는 색상, 질감, 외곽선, 모양 등 다양한 시각적 정보를 포함하고 있다. 이러한 특징 정보들을 사용하여 영상 콘텐츠간의 유사도를 측정할 수 있다. 일반적으로 비교적 정보 추출과 구성이 쉬운 색상 정보와 형태 정보를 사용하여 이미지간의 유사도를 측정하고 있다. 하지만 대부분 사람들은 이미지에 대한 감성을 느끼기 때문에 영상 콘텐츠의 감성분류를 통한 감성 정보를 유사도 측정에 사용한다. 따라서 본 연구에서는 영상의 감성 정보와 색상 및 형태 정보의 비교 값으로 영상 콘텐츠간 유사도를 결정하도록 하였다. 본 연구 결과는 게임 프로그램을 제작하는데 있어서 유사 화면을 검색하는데 많은 도움이 되리라 여겨진다.
CGI(Computer-generated Image) 기술은 이미지 생성을 자동화한다는 측면에서 디자이너에게 도움을 줄 수 있다. CGI를 활용하는 과정에서 두 가지 중요한 활동은 이미지의 제작과 관리이다. 다양성을 추구하는 디자이너에게 추상이미지의 자동 생성과 같은 기법은 자유로운 형태의 이미지 획득에 많은 도움을 줄 수 있다. 이와 더불어 중요한 이슈는 방대한 분량의 이미지를 적절한 메커니즘을 통해 관리하는 것이다. 추상이미지는 특성상 이미지에 대응하는 검색어 설정이 어려우며, 분류 역시 까다로운 문제로 남아있다. 본 논문은 디자이너에게 친숙한 조형 요소와 감성 요소를 분류와 표현의 정보로 이용함으로써 자동 생산된 추상 이미지를 효과적으로 분류하고 표현하는 방법을 제안한다. 추상이미지에 대한 적절한 분류와 표현은 이미지 데이타베이스 구축 및 검색에 있어 간결하고 효과적인 기술로 활용할 수 있으며 대규모 컨텐츠 관리에 도움을 줄 수 있다.
이 연구에서는 디지털 이미지 분석법을 활용하여 북동태평양 ODP Leg 204 시추 코아 시료에서 산출된 부유성 유공충 Neogloboquadrina pachyderma 권각의 감긴 방향을 컴퓨터 프로그래밍으로 결정하였다. 이것은 유공충 군집 이미지에서 N. pachyderma 개체를 자동 인식하게 한 것이며, N. pachyderma 권각 방향을 컴퓨터 프로그래밍으로 결정할 수 있도록 고안한 것이다. 이 알고리즘을 이용한 새로운 판독 방법을 사용한 결과 유공충 시료에 대한 정량 분석이 빠르게 수행될 수 있게 되었으며, 실제현미경을 통한 관찰 결과와 비교하였을 때 약 90% 만큼 높게 일치하였다. 이 수치는 컴퓨터를 이용한 디지털 이미지 분석이 미고생물학 분야에 성공적으로 적용될 수 있다는 점을 시사하고 있다.
얼굴 피부는 신체 건강을 표현할 뿐만 아니라 매력을 결정하는 요소 중 하나이다. 특히 윤기 나는 피부는 대부분의 사람들이 선호하며 윤기 나는 피부 표현을 위해 다양한 화장품들이 만들어져왔다. 하지만 윤기 있는 피부는 주관적 평가이기 때문에 기름진 피부의 경우 기존의 피부 윤기 평가 방법으로는 명확한 윤기 있는 피부로 평가하기가 어렵다. 더욱이 윤기와 유사하게 광이 있지만 부정적으로 평가되는 번들거리는 피부와 명확한 분류 기준 또한 없는 상황이다. 본 연구에서는 피부측정 파라미터 5개[피부 광채, 피부 보습, 피부 투명도, 피부 피지, 안면 이미지]를 측정하였고, 연구대상자들이 촬영된 안면 이미지를 근거하여 각각의 윤기 있는 피부와 번들거리는 피부의 이미지를 선별하여 피부 측정의 정량화를 통해 비교 분석하였다. 그 결과 번들거리는 피부에서 피부 광채 및 피지 증가, 투명도 감소, 보습 감소를 확인하였다. 그러나 윤기 있는 피부의 경우 피부 광채, 피지, 투명도는 유사한 패턴을 보였지만 보습이 유의차 있게 증가하는 결과를 보였다. 본 연구에서는 기기측정 및 정량적 평가를 통해서 윤기 있는 피부와 번들거리는 피부를 분류하는 객관적 평가 기준을 제시하고자 한다.