증산은 적정 관수 관리에 중요한 역할을 하므로 수분 스트레스에 취약한 토마토와 같은 작물의 관개 수요에 대한 지식이 필요하다. 관수량을 결정하는 한 가지 방법은 증산량을 측정하는 것인데, 이는 환경이나 생육 수준의 영향을 받는다. 본 연구는 분단위 데이터를 통해 수학적 모델과 딥러닝 모델을 활용하여 토마토의 증발량을 추정하 고 적합한 모델을 찾는 것을 목표로 한다. 라이시미터 데이터는 1분 간격으로 배지무게 변화를 측정함으로써 증산 량을 직접 측정했다. 피어슨 상관관계는 관찰된 환경 변수가 작물 증산과 유의미한 상관관계가 있음을 보여주었다. 온실온도와 태양복사는 증산량과 양의 상관관계를 보인 반면, 상대습도는 음의 상관관계를 보였다. 다중 선형 회귀 (MLR), 다항 회귀 모델, 인공 신경망(ANN), Long short-term memory(LSTM), Gated Recurrent Unit(GRU) 모델을 구 축하고 정확도를 비교했다. 모든 모델은 테스트 데이터 세트에서 0.770-0.948 범위의 R2 값과 0.495mm/min- 1.038mm/min의 RMSE로 증산을 잠재적으로 추정하였다. 딥러닝 모델은 수학적 모델보다 성능이 뛰어났다. GRU 는 0.948의 R2 및 0.495mm/min의 RMSE로 테스트 데이터에서 최고의 성능을 보여주었다. LSTM과 ANN은 R2 값이 각각 0.946과 0.944, RMSE가 각각 0.504m/min과 0.511로 그 뒤를 이었다. GRU 모델은 단기 예측에서 우수한 성능 을 보였고 LSTM은 장기 예측에서 우수한 성능을 보였지만 대규모 데이터 셋을 사용한 추가 검증이 필요하다. FAO56 Penman-Monteith(PM) 방정식과 비교하여 PM은 MLR 및 다항식 모델 2차 및 3차보다 RMSE가 0.598mm/min으로 낮지만 분단위 증산의 변동성을 포착하는 데 있어 모든 모델 중에서 가장 성능이 낮다. 따라서 본 연구 결과는 온실 내 토마토 증산을 단기적으로 추정하기 위해 GRU 및 LSTM 모델을 권장한다.
본 논문에서는 웹툰 캐릭터 영상에 대해서 심층학습에 기반한 3D 안면 재구성 기술을 제안한다. 본 연구에서 제안하는 방법은 기본 사항 모듈과 상세 사항 모듈로 구성된다. 입력 받은 웹툰 캐릭터 영상에 대해서 기본 사항 모듈의 요소인 Albedo 모듈을 적용해서 안면에 들어오는 빛의 양을 계산하여 Albedo 맵을 생성한다. 그 리고 기본 사항 모듈의 다른 구성 요소인 FLAME 모듈에서는 입력 영상에 대한 기본적인 3D 안면 형태를 생 성한다. 이와 동시에 상세사항 모듈을 적용해서 실제 사람과 다르게 이목구비가 변형된 웹툰 캐릭터 영상의 표정이나 얼굴 깊이와 같은 특징을 살리는 세부사항을 추출한다. 계산한 세부사항들을 토대로 세부사항 맵을 생성하여 앞서 FLAME 모듈에서 생성된 3D 안면 형태와 결합하여 세부사항 안면 형태를 생성한다. 그 후 Albedo 모듈에서 생성된 Albedo 맵까지 적용하면 최종적으로 웹툰 캐릭터 영상에 대한 3D 안면 재구성이 완 료된다. 본 연구에서는 웹툰 캐릭터뿐만 아니라 안면이 스타일화된 애니메이 션 캐릭터에 대해서도 결과를 생성하고, 이를 기존 연구와 비교하여 그 우수성을 입증한다.
컴퓨터 성능의 발전으로 빅데이터의 효율적인 사용이 가능해지면서, 심층 학습(deep learning)은 다양한 의료 분야에 활용할 수 있는 핵심적인 인공지능(artificial intelligence, AI) 기법으로 각광받고 있다. 이에 본 종설은 뇌종양 진단과 치료에 사용되는 자기공명영상(magnetic resonance imaging, MRI)의 심층 학습 기법을 소개하고자 하였다. 먼저 국내 AI의 의료 분야 도입의 동향을 분석하고, 이를 바탕으로 MRI를 활용한 뇌종양의 진단과 치료에 적용할 수 있는 심층 학습 기법과 그 결과들을 기술하였다. 뇌종양 진단과 치료 시, 심층 학습을 이용한 최근 사례는 영상 분류, 영상 품질 개선, 영상 분할로 나타났으며, 질병의 진단과 치료에 적용할 수 있는 객관적이고 높은 성능 수치를 나타내면서 그 유용성을 확인 할 수 있었다. 종합하자면, 심층 학습은 질병의 진단과 치료에 적용할 수 있는 유용한 지표이며, AI 역량을 지닌 의료진의 지도하에 점진적인 도입이 이뤄진다면 질병의 진단과 치료에 큰 도움을 주는 훌륭한 소프트웨어로 활용될 것으로 여겨진다. 본 종설이 심층 학습을 이해할 때 많은 도움이 되길 바라며, 향후 관련 연구를 수행할 때 가이드라인으로 활용될 것을 기대 한다.
본 연구에서는 게임 영상과 같은 생성된 영상으로부터 물체를 인식하는 심층 학습 기반 모델의 성능을 향상 시키는 방법을 제시한다. 특히, 실제 영상으로 훈련된 물체 인식 모델에 대해서 게임 영상으로 추가 훈련을 수행함으로써 물체 인식 성능이 향상됨을 검증한다. 본 연구에서는 심층 학습 기반의 물체 인식 모델들 중에서 가장 널리 사용되는 YoloV2 모델을 이용한다. 이 모델에 대해서 8 종류의 다양한 게임에서 샘플링한 160장의 게임 영상을 적용해서 물체 인식 모델을 다시 훈련하고, IoU와 정확도를 측정해서 본 연구에서 주장하는 게임 영상을 이용한 훈련이 효과적임을 입증한다.
In this paper, we present a learning platform for robotic grasping in real world, in which actor-critic deep reinforcement learning is employed to directly learn the grasping skill from raw image pixels and rarely observed rewards. This is a challenging task because existing algorithms based on deep reinforcement learning require an extensive number of training data or massive computational cost so that they cannot be affordable in real world settings. To address this problems, the proposed learning platform basically consists of two training phases; a learning phase in simulator and subsequent learning in real world. Here, main processing blocks in the platform are extraction of latent vector based on state representation learning and disentanglement of a raw image, generation of adapted synthetic image using generative adversarial networks, and object detection and arm segmentation for the disentanglement. We demonstrate the effectiveness of this approach in a real environment.
This paper suggests the method of the spherical signature description of 3D point clouds taken from the laser range scanner on the ground vehicle. Based on the spherical signature description of each point, the extractor of significant environmental features is learned by the Deep Belief Nets for the urban structure classification. Arbitrary point among the 3D point cloud can represents its signature in its sky surface by using several neighborhood points. The unit spherical surface centered on that point can be considered to accumulate the evidence of each angular tessellation. According to a kind of point area such as wall, ground, tree, car, and so on, the results of spherical signature description look so different each other. These data can be applied into the Deep Belief Nets, which is one of the Deep Neural Networks, for learning the environmental feature extractor. With this learned feature extractor, 3D points can be classified due to its urban structures well. Experimental results prove that the proposed method based on the spherical signature description and the Deep Belief Nets is suitable for the mobile robots in terms of the classification accuracy.