본 연구에서는 자기공명영상검사실 방사선사의 환자안전 문화 인식을 분석하고자 하였다. 수도권 자기공명영상검사 실에서 근무하는 방사선사 109명을 대상으로 일반적인 특성, 실태조사, 환자안전 문화 인식에 대해 설문 조사하였 다. 의료종사자들을 대상으로 개발된 한국형 환자안전문화 측정 도구에서 최상위 리더십을 경영진으로, 부서장이라 는 단어를 파트장으로 수정하였고 전문가 5인에게 내용 타당도를 검증받았다. 결과적으로 자기공명영상검사실에서 근무하는 방사선사의 환자안전 문화 인식 점수는 평균 3.97로 높았지만, 안전사고경험 비율이 65.1%로 높게 나타났 다. 따라서 정기적으로 이루어지고 있는 자기공명영상검사 안전교육의 효율성 제고를 위한 연구가 필요하며 본 연구 가 기초자료를 제공할 것이라 사료된다.
In this paper, we proposed and tested an indoor obstacle recognition and avoidance algorithm using vision and ultrasonic sensors for effective operation of drone with low-power. In this paper, the indoor flight of a drone is mainly composed of two algorithms. First, for the indoor flight of the drone, the vanishing point and the center point of the image were extracted through Hough transform of the input image of the vision sensor. The drone moves along the extracted vanishing point. Second, we set an area of interest so that the drone can avoid obstacles. The area of interest is a space where the drone can fly after recognizing an obstacle at a distance from the ultrasonic sensor. When an obstacle is recognized in the drone's area of interest, the drone performs an obstacle avoidance action. To verify the algorithm proposed in this paper, a simple obstacle was installed in an indoor environment and the drone was flown. From the experimental results, the proposed algorithm confirmed the indoor flight and obstacle avoidance behavior of the drone according to the vanishing point.
본 연구에서는 게임 영상과 같은 생성된 영상으로부터 물체를 인식하는 심층 학습 기반 모델의 성능을 향상 시키는 방법을 제시한다. 특히, 실제 영상으로 훈련된 물체 인식 모델에 대해서 게임 영상으로 추가 훈련을 수행함으로써 물체 인식 성능이 향상됨을 검증한다. 본 연구에서는 심층 학습 기반의 물체 인식 모델들 중에서 가장 널리 사용되는 YoloV2 모델을 이용한다. 이 모델에 대해서 8 종류의 다양한 게임에서 샘플링한 160장의 게임 영상을 적용해서 물체 인식 모델을 다시 훈련하고, IoU와 정확도를 측정해서 본 연구에서 주장하는 게임 영상을 이용한 훈련이 효과적임을 입증한다.
저해상도 하수관거의 균열을 탐지하기 위해서 웨이블릿 기법을 이용하여 연구를 수행하였다. 변수 4개를 설정하여 파라미터 연구를 수행하였으며 기존 CNN 기법의 연구와 비교를 통해 타당성을 검증하였다. 연구 결과 본 연구에 제시된 파라미터 변수들의 기본값만 사용하더라도 97.2%의 높은 정확도를 나타내었으며, 정확도가 들쭉날쭉하지 않고 안정성을 나타내었다. 따라서, 웨이블릿 기법을 활용하여 구조물의 균열 등 결함 인식 등의 문제를 잘 해결할 것으로 판단되며 향후 연구로 딥러닝 기법과의 상호 보완적인 방법을 모색하고자 한다.
본 연구의 목적은 노화에 따른 작업기억능력의 저하에 영향을 받는 자막인식위치에 대해 탐구하는 것이다. 이를 위해, 본 연구에는 주니어 집단(평균 나이: 26세, 표준편차: 3.06, N=27)과 시니어 집단(평균 나이: 61.69세, 표준편 차: 4.18, N=26)이 참여했으며, 실험 과제로는 실험 참가자들의 작업기억능력을 측정하기 위한 N-back 과제와 자막 인식위치를 측정하기 위한 동영상자막확인 과제가 사용되었다. N-back 과제 수행 결과, 시니어 집단이 주니어 집단 보다 과제에 대한 반응속도가 느리고 정답률이 낮게 나타나, 시니어 집단은 주니어 집단에 비해 작업기억능력의 저하가 나타났다는 것을 의미했다. 또한, 동영상자막확인 과제 수행 결과, 노화에 따른 작업기억능력의 저하에 부정적인 영향을 받는 자막위치는 화면의 ‘좌측-아래’이고 긍정적인 영향을 받는 자막위치는 화면의 ‘좌측-가운데’으로 나타났다. 나머지 화면 위치에서는 노화에 따른 작업기억능력의 저하에 영향을 받지 않았다. 결과적으로 본 연구 결과를 통해서 연령의 증가에 따른 작업기억능력의 저하에 부정적 혹은 긍정적 영향을 받는 영상 속 자막인식위치에 대해서 살펴볼 수 있었으며, 이는 영상에 자막을 제시해야할 경우 시청자의 연령을 고려하여 자막위치를 선정하면 효율적으로 시청자에게 정보를 제공할 수 있다는 것을 의미했다.
접목시기의 줄기직경을 조사한 결과 토마토 접수는 2.5±0.3mm, 대목은 3.1±0.7mm인 것으로 조사되었고, 오 이 접수는 2.2±0.2mm, 대목은 약 3.6±0.3mm인 것으로 조사되었다. 절단 기준점의 높이 차는 4mm 이상일 때 대부분의 모종에 대해 접촉면이 작아 접목 불량이 발생 하였고, 2mm 이하일 때 접수와 대목의 절단면 겹침으로 인하여 접촉부가 작아 불량이 발생하는 것으로 분석 되어 3mm가 적당한 것으로 사료된다. 접수 및 대목 줄 기직경이 모두 얇을 경우 접수 및 대목 중 하나의 줄기 직경이 평균값 이상을 이용해야 하는 것으로 분석되었다. 또한 줄기의 절단 각도는 인력으로 작업하기 때문에 접수는 13~55o, 대목은 15~67o의 범위로 다양한 것으로 조사되어 접목 불량의 원인이 될 수 있으므로 기계절단을 통하여 접수와 대목의 절단각도를 일치시킴으로써 접 목성공률을 향상 시킬 필요가 있을 것으로 사료된다. 모종 줄기 절단면 촬영 및 영상처리로 모종의 휨을 인식 및 계산하여 그립퍼의 회전각을 제어하여 정확도 시험을 실시한 결과 접수와 대목 절단면은 정확히 접합되는 것 으로 조사되었다. 영상 인식 기술을 적용한 접목로봇을 이용하여 오이와 토마토에 대한 접목시험을 실시한 결과 오이는 96±3.2%, 토마토는 95±4%의 접목 성공률이 조 사되었다.
게임 플레이에서 몰입은 매우 중요한 개념이며 게임을 이루는 요소들 중 몰입에 많은 영향을 미치는 요소는 바로 컷씬이다. 컷씬은 재미와 감동을 주는 게임의 스토리를 플레이어에게 직접적으로 전달해준는 매개체 이다. 대부분의 게임에서 모든 플레이어는 같은 컷씬을 보게 된다. 본 연구는 플레이어의 감성 데이터를 바 탕으로 플레이어마다 다른 컷씬을 감상하게 하게 게임 플레이의 몰입을 증가시키는 실험을 검증하였다. 우리는 각 이벤트 후 보여지는 컷씬을 감상하기 전 인터페이스를 통해 플레이어의 각 상황에 대한 감성을 입력받아 실시간으로 보여지는 컷씬에 효과를 적용시켰다. 적용시켜지는 칼라 효과는 러셀의 감성모델과 그 감 성모델에 매칭되는 컬러표를 기반으로 구현하였다. 플레이어의 감성에 따라 컷씬은 달라지게 된다. 많은 연 구들이 게임에서의 몰입을 다루고 있으며 이계속 이루어 질 것이다. 본 연구는 게임에서 플레이어의 몰입증가에 새로운 시도가 될 것이다.
기계에 대한 새로운 학습 방법의 등장과 함께 기계학습을 이용한 영상 인식에 대한 관심이 높다. 스마트 기기를 이용한 영상 획득이 활발해지면서, 촬영한 영상 속 생물 개체의 이름을 자동으로 알려 주는 기계학습 기반의 영상인식 기술은 대중적인 호기심을 충족시킬 뿐 아니라 생물학 및 영상인식 연구자들에게도 매력적인 주제이다. 본 발표에서는 15종의 나비 영상으로부터 나비의 형태(shape) 및 색깔과 같은 영상정보를 개체 인식에 이용하는 기계학습 기반의 나비인식 방법을 소개 한다. 우선 나비의 형태나 색깔로부터 각 종을 대표해 기계의 학습 데이터로 사용될 특징(feature) 추출을 위한 몇 가지 방법들에 대해 알아본다. 그리고 추출된 특징들을 학습 데이터로 이용해 세 가지 대표적인 기계학습 방법(베이지안 분류기, 인공신경망, 서포트 벡터 머신)을 학습시키는 방법 및 테스트 데이터를 이용한 성능평가 방법을 소개한다.
본 연구에서는 파프리카 수확기 개발의 일환으로 엔드 이펙터의 정확한 제어를 위하여 스테레오 영상으로 파프리카를 인식하고 인식된 파프리카의 공간 좌표를 획득하기 위하여 영상처리 알고리즘을 개발하고자 하였다. 먼저, 색상 정보를 이용하여 파프리카 영상을 추출하기 위하여 히스토그램 분석을 수행하였고 결과에 따른 임계값 을 설정하였다. 임계값에 의해 추출된 파프리카 영역에 대해 스테레오 대응을 수행하기 위해 실험에 사용된 스테레오 영상의 F 행렬을 구하였고 이를 이용하여 에피 폴라선을 구하여 대응을 수행하였다. 대응을 수행 할 때는 색상 영상을 이용하여 강조 마스크와 컨벌루션을 통해 중심 픽셀과 수직, 수평방향 이웃 픽셀에 가중치를 적용하여 강조한 후 최소 자승 오차를 갖는 점을 대응 점으로 추출하였다. 추출 된 대응 점간의 거리를 스테레오 영상의 기하학적인 관계를 이용하여 실제 거리를 계산하였고, 계산된 거리(Z)값을 이용하여 수평(X), 수직 (Y) 방향 공간 좌표를 획득하였다. 그 결과 수평 방향 오차 평균 5.3mm, 수직 방향 오차 평균 18.8mm, 거리 오차 평균 5.4mm로 나타났으며, 거리 400~450mm 구간과 영상의 모서리 부분의 왜곡이 발생하는 부분에서 오차가 다른 구간에 비해 크게 나타나는 것을 확인 할 수 있었다.
We present a Microsoft Kinect-based hand recognition algorithm for an interactive image clipping system, which is widely used for environments such as public facilities and security environments where personal capturing devices including mobile phones are not allowed. User-friendly interface and accurate image capturing function are required for an image clipping system. We build the system by combining Microsoft Kinect, HD webcam and projector. The Kinect and webcam are used to capture the motions of users' hand and project is to display the user-selected area from the capturing material. Hand recognition is composed of three steps: (i) the region occupied by users' hand is extracted from an image, (ii) the fingertips of the extracted hand region are analyzed using k-curvature algorithm, and (iii) the height of the fingertip is estimated using the depth image from Kinect. The height of the fingertip informs whether users' finger touched the surface of the target. The region captured by the fingertip is clipped from the image and stored as the target image. The excellence of our hand recognition algorithm is proved through a user test.
생물 종 다양성 및 보존에 대한 필요성은 곤충과 같은 생물 개체의 정확하고 효율적인 인식 방법에 관심을 불러 일으켰다. 특히 스마트 폰과 같은 디지털 정보가전의 발달과 보급으로 인해 영상 매체를 이용한 곤충 종의 자동인식에 대해 많은 연구가 이루어지고 있다. 본 논문은 나비 영상 인식을 위해 가지 길이 유사성 엔트로피(Branch Length Similarity Entropy)를 이용한 특징 추출 방법을 제안한다. 제안한 특징 추출 방법은 나비의 윤곽으로부터 높은 곡률을 가진 특징점들을 추출한 다음 이들 사이를 네트워크로 구성하고 특징점 간의 길이 분포를 엔트로피로 표현한 것이다. 제안한 특징 추출 방법의 성능을 평가하고자 15종의 나비 영상을 대상으로 지도학습 기반 기계학습 방법인 베이지안 분류기, 인공 신경망 및 서포트 벡터 머신을 이용해 기존에 제시된 퓨리에 기술자 및 웨이블릿 기술자와 비교하였다.
영상처리는 정확한 오이의 형상 및 위치를 인식하기 위하여 형상인식 알고리즘에 대한 연구를 수행하였다. 다양한 오이형상을 인식하기 위한 방법으로는 신경회로망의 연상 메모리 알고리즘을 이용하여 오이의 특정형상을 인식하였다. 형상인식은 실제영상에서 오이의 형상과 위치를 판정할 수 있도록 알고리즘을 개발한 결과, 다음과 같은 결론을 얻었다. 본 알고리즘에서는 일정한 학습패턴의 수를 2개, 3개, 4개를 각각 기억시켜 샘플패턴 20개를 실험하여 연상시킨 결과, 학습패턴으로 복원된 출력패턴의 비율은 각각 65.0%, 45.0%, 12.5%로 나타났다. 이는 학습패턴의 수가 많을수록 수렴할 때, 다른 출력패턴으로 많이 검출되었다. 오이의 특정형상 검출은 30×30간격으로 자동검출 되도록 처리하였다. 실제영상에서 자동 검출로 처리한 결과, 오이인식의 처리시간은 약 0.5~1초/1개(패턴) 빠르게 검출되었다. 또한, 다섯 개의 실제 영상에서 실험한 결과, 학습패턴에 대한 다른 출력패턴은 96~99%의 제거율을 나타내었다. 오이로 인식된 출력패턴 중에서, 오검출된 출력패턴의 비율은 0.1~4.2%를 나타내었다. 본 연구에서는 신경회로망을 이용하여 오이의 형상 및 위치를 인식할 수 있도록 알고리즘을 개발하였다. 오이의 위치측정은 실제영상에서 학습패턴과 유사한 출력패턴의 좌표를 가지고, 오이의 위치좌표를 추정할 수 있었다.