검색결과

검색조건
좁혀보기
검색필터
결과 내 재검색

간행물

    분야

      발행연도

      -

        검색결과 193

        141.
        1995.12 KCI 등재 구독 인증기관 무료, 개인회원 유료
        An introduction to the first CCD camera system in Bohyunsan Optica1 Astronomy Observatory(CCD#l) is presented. The CCD camera adopts modular dewar design of IfA(Institute for Astronomy at Hawaii University) and SDSU(San Diego State University) general purpose CCD controller. The user interface is based on IfA design of easy-to-use QUI program running on the NeXT workstation. The characteristics of the CCD#l including Gain, Charge Transfer Efficiency, rms Read-Out Noise, Linearity and Dynamic range is tested and discussed. The CCD#l shows 6.4 electrons RON and gain of 3.49 electrons per ADU, and the optimization resulted in about 27 seconds readout time guaranteeing charge transfer efficiency of 0.99999 for both direction. Linearity test shows that non-linear coefficient is 6×10−7 6×10−7 in the range of 0 to 30,000 ADU.
        4,300원
        144.
        2019.12 KCI 등재 서비스 종료(열람 제한)
        This paper proposes a model and train method that can real-time detect objects and distances estimation based on a monocular camera by applying deep learning. It used YOLOv2 model which is applied to autonomous or robot due to the fast image processing speed. We have changed and learned the loss function so that the YOLOv2 model can detect objects and distances at the same time. The YOLOv2 loss function added a term for learning bounding box values x, y, w, h, and distance values z as 클래스ification losses. In addition, the learning was carried out by multiplying the distance term with parameters for the balance of learning. we trained the model location, recognition by camera and distance data measured by lidar so that we enable the model to estimate distance and objects from a monocular camera, even when the vehicle is going up or down hill. To evaluate the performance of object detection and distance estimation, MAP (Mean Average Precision) and Adjust R square were used and performance was compared with previous research papers. In addition, we compared the original YOLOv2 model FPS (Frame Per Second) for speed measurement with FPS of our model.
        145.
        2019.09 KCI 등재 서비스 종료(열람 제한)
        This paper proposes a parking space detection method for autonomous parking by using the Around View Monitor (AVM) image and Light Detection and Ranging (LIDAR) sensor fusion. This method consists of removing obstacles except for the parking line, detecting the parking line, and template matching method to detect the parking space location information in the parking lot. In order to remove the obstacles, we correct and converge LIDAR information considering the distortion phenomenon in AVM image. Based on the assumption that the obstacles are removed, the line filter that reflects the thickness of the parking line and the improved radon transformation are applied to detect the parking line clearly. The parking space location information is detected by applying template matching with the modified parking space template and the detected parking lines are used to return location information of parking space. Finally, we propose a novel parking space detection system that returns relative distance and relative angle from the current vehicle to the parking space.
        146.
        2019.08 KCI 등재 서비스 종료(열람 제한)
        확산형 콜리메이터는 촬영 대상을 축소 촬영하거나 넓은 관심영역을 작은 감마카메라를 사용하여 검출 하기 위해서 사용한다. 확산형 콜리메이터와 블록형 섬광체 및 픽셀형 섬광체 배열을 사용하는 감마카메라 에서 방사선원이 관심영역 주변에 위치할 때 섬광체 표면에 감마선이 대각선으로 입사하게 되면, 섬광체 깊이 방향으로 대각선으로 검출되기 때문에 공간 분해능이 저하된다. 본 연구에서는 이러한 관심영역 외곽에서의 공간 분해능을 향상하기 위한 새로운 시스템을 설계하였다. 사다리꼴 픽셀형 섬광체를 사용하여 각 섬광 픽셀을 콜리메이터 구멍의 각도와 크기에 맞게 일치하도록 구성하면, 감마선이 섬광체의 여러 깊이에서 반응하더라도, 하나의 섬광 픽셀 위치로 영상화 할 수 있다. 즉, 대각선 방향의 여러 지점에서 검출되더라도, 감마선은 하나의 섬광 픽셀과 상호 작용하기 때문에 공간 분해능의 저하가 발생하지 않는다. Geant4 Application for Tomographic Emission (GATE) 시뮬레이션을 통해 블록형 섬광체를 사용한 감마카메라와 사다리꼴 픽셀형 섬광체를 사용한 감마카메라를 설계하여 공간 분해능을 비교 평가하였다. 관심영역 외곽에서 발생한 감마선을 통해 획득한 영상에서 공간 분해능은 블록형 섬광체를 사용한 감마카메라에서는 4.05 mm였고, 사다리꼴 픽셀형 섬광체를 사용한 감마카메라에서는 2.97 mm의 공간 분해능을 보였다. 사다리꼴 픽셀형 섬광체를 사용한 시스템에서 26.67% 공간 분해능이 향상됨을 확인할 수 있었다.
        147.
        2018.12 KCI 등재 서비스 종료(열람 제한)
        3D depth perception has played an important role in robotics, and many sensory methods have also proposed for it. As a photodetector for 3D sensing, single photon avalanche diode (SPAD) is suggested due to sensitivity and accuracy. We have researched for applying a SPAD chip in our fusion system of time-of-fight (ToF) sensor and stereo camera. Our goal is to upsample of SPAD resolution using RGB stereo camera. Currently, we have 64 x 32 resolution SPAD ToF Sensor, even though there are higher resolution depth sensors such as Kinect V2 and Cube-Eye. This may be a weak point of our system, however we exploit this gap using a transition of idea. A convolution neural network (CNN) is designed to upsample our low resolution depth map using the data of the higher resolution depth as label data. Then, the upsampled depth data using CNN and stereo camera depth data are fused using semi-global matching (SGM) algorithm. We proposed simplified fusion method created for the embedded system.
        148.
        2018.02 KCI 등재 서비스 종료(열람 제한)
        This paper presents a vision-based fall detection system to automatically monitor and detect people’s fall accidents, particularly those of elderly people or patients. For video analysis, the system should be able to extract both spatial and temporal features so that the model captures appearance and motion information simultaneously. Our approach is based on 3-dimensional convolutional neural networks, which can learn spatiotemporal features. In addition, we adopts a thermal camera in order to handle several issues regarding usability, day and night surveillance and privacy concerns. We design a pan-tilt camera with two actuators to extend the range of view. Performance is evaluated on our thermal dataset: TCL Fall Detection Dataset. The proposed model achieves 90.2% average clip accuracy which is better than other approaches.
        149.
        2018.02 KCI 등재 서비스 종료(열람 제한)
        Recently, the safety in vehicle also has become a hot topic as self-driving car is developed. In passive safety systems such as airbags and seat belts, the system is being changed into an active system that actively grasps the status and behavior of the passengers including the driver to mitigate the risk. Furthermore, it is expected that it will be possible to provide customized services such as seat deformation, air conditioning operation and D.W.D (Distraction While Driving) warning suitable for the passenger by using occupant information. In this paper, we propose robust vehicle occupant detection algorithm based on RGB-Depth-Thermal camera for obtaining the passengers information. The RGB-Depth-Thermal camera sensor system was configured to be robust against various environment. Also, one of the deep learning algorithms, OpenPose, was used for occupant detection. This algorithm is advantageous not only for RGB image but also for thermal image even using existing learned model. The algorithm will be supplemented to acquire high level information such as passenger attitude detection and face recognition mentioned in the introduction and provide customized active convenience service.
        150.
        2018.02 KCI 등재 서비스 종료(열람 제한)
        본 연구에서는 세장체의 연속적인 거동을 전체 길이에 대하여 측정할 수 있는 계측시스템을 선정하며, 선정된 수중카메라 시스템의 성능평가를 수행한다. 수중카메라의 기초성능평가를 위하여 강체파이프의 강제가진 실험을 수행한다. 파이프의 상단을 강제가진장치에 고정시킨 후, 일정주기와 진폭으로 가진시켜 수중카메라를 이용하여 변위를 측정한다. 강제가진장치에 입력된 신호와 수중카메라에 계측된 신 호를 비교하여 측정 정밀도를 평가한다. 연속체인 세장체 파이프의 강제가진 실험을 수행하여, 수중카메라 시스템의 실시간 3차원적인 측정 가능성을 정성적으로 평가한다. 본 수중카메라 시스템은 향후 국내 심해공학수조에 적용되어, 세장체구조물 및 계류선 등의 거동 측정에 활용 될 것이다.
        151.
        2017.09 KCI 등재 서비스 종료(열람 제한)
        본 연구에서는 표면영상유속계의 한계점으로 지적되어 온 야간이나 안개시 적용 문제를 해결하기 위해, 원적외선 카메라를 이용한 표면영상유 속계의 적용성을 검토하였다. 이를 위해 각 조건에 대한 원적외선 카메라의 측정 정확도 평가 실험을 진행하였다. 정확도 평가는 기존에 검증이 된 주간 조건의 일반카메라를 이용한 표면영상유속계 측정 결과에 대한 상대 오차를 산정하여 평가하였다. 결과적으로 원적외선 카메라를 이용한 표면영상유속계의 야간 측정 상대 오차는 최대 4.3%, 평균 1% 내외로 매우 낮게 나타나 정확도가 높음을 확인하였고, 안개 조건 또한 최대 5.2%, 평균 2% 내외로 매우 높은 정확도를 보였다. 이에 따라 일반 카메라로 수면 흐름을 가시화할 수 없던 비가시 환경에서 원적외선 카메라를 이용하는 경우 높은 정확도로 측정이 가능할 것으로 판단된다.
        154.
        2016.11 KCI 등재 서비스 종료(열람 제한)
        This paper proposes a method for motion estimation of consecutive cameras using 3-D straight lines. The motion estimation algorithm uses two non-parallel 3-D line correspondences to quickly establish an initial guess for the relative pose of adjacent frames, which requires less correspondences than that of current approaches requiring three correspondences when using 3-D points or 3-D planes. The estimated motion is further refined by a nonlinear optimization technique with inlier correspondences for higher accuracy. Since there is no dominant line representation in 3-D space, we simulate two line representations, which can be thought as mainly adopted methods in the field, and verify one as the best choice from the simulation results. We also propose a simple but effective 3-D line fitting algorithm considering the fact that the variance arises in the projective directions thus can be reduced to 2-D fitting problem. We provide experimental results of the proposed motion estimation system comparing with state-of-the-art algorithms using an open benchmark dataset.
        155.
        2016.11 KCI 등재 서비스 종료(열람 제한)
        In this study, a model-referenced underwater navigation algorithm is proposed for high-precise underwater navigation using monocular vision near underwater structures. The main idea of this navigation algorithm is that a 3D model-based pose estimation is combined with the inertial navigation using an extended Kalman filter (EKF). The spatial information obtained from the navigation algorithm is utilized for enabling the underwater robot to navigate near underwater structures whose geometric models are known a priori. For investigating the performance of the proposed approach the model-referenced navigation algorithm was applied to an underwater robot and a set of experiments was carried out in a water tank.
        156.
        2016.10 서비스 종료(열람 제한)
        To monitor static and dynamic responses of bridges, an image-based monitoring system using networking Pan-Tilt-Zoom IP (Internet Protocol) cameras has been developed. Verification testing is carried out during the human-excited vibration test of the stay cables in a cable-stayed bridge. As well as identifying the natural frequencies of the stay cable, the reasonable damping ratios are successfully extracted from the acquired images.
        157.
        2016.03 KCI 등재 서비스 종료(열람 제한)
        In this paper, we propose a new algorithm of the guidance line extraction for autonomous agricultural robot based on vision camera in paddy field. It is the important process for guidance line extraction which finds the central point or area of rice row. We are trying to use the central region data of crop that the direction of rice leaves have convergence to central area of rice row in order to improve accuracy of the guidance line. The guidance line is extracted from the intersection points of extended virtual lines using the modified robust regression. The extended virtual lines are represented as the extended line from each segmented straight line created on the edges of the rice plants in the image using the Hough transform. We also have verified an accuracy of the proposed algorithm by experiments in the real wet paddy.
        158.
        2015.11 KCI 등재 서비스 종료(열람 제한)
        This paper proposes a novel method for detection of hand raising poses from images acquired from a single camera attached to a mobile robot that navigates unknown dynamic environments. Due to unconstrained illumination, a high level of variance in human appearances and unpredictable backgrounds, detecting hand raising gestures from an image acquired from a camera attached to a mobile robot is very challenging. The proposed method first detects faces to determine the region of interest (ROI), and in this ROI, we detect hands by using a HOG-based hand detector. By using the color distribution of the face region, we evaluate each candidate in the detected hand region. To deal with cases of failure in face detection, we also use a HOG-based hand raising pose detector. Unlike other hand raising pose detector systems, we evaluate our algorithm with images acquired from the camera and images obtained from the Internet that contain unknown backgrounds and unconstrained illumination. The level of variance in hand raising poses in these images is very high. Our experiment results show that the proposed method robustly detects hand raising poses in complex backgrounds and unknown lighting conditions.
        159.
        2015.11 서비스 종료(열람 제한)
        적외선 열화상 카메라는 피사체의 실물을 보여주는 것이 아닌 피사체의 표면으로부터 복사(방사)되는 전자파의 일종인 적외선 파장 형태의 에너지(열)을 검출, 피사체 표면 복사열의 강도를 측정하여 강도의 양에 따라 각각의 다른 색상(false or pseudo color)으로 표현하여 주는 카메라이다. 이는 대상물체 또는 임의의 범위에 존재하는 열의 차이(온도)를 비접촉 방식으로 측정이 가능하다. 현재 방열손실의 온도 측정은 KS법에 의한 지점별 온도측정을 하고 있으나, 이는 접촉하는 지점마다 온도가 달라 평균적인 온도를 구하는 데는 문제점이 있다. 이를 개선하기 위해 공정별 표면온도를 고분해능 검지기를 이용한 적외선열화상카메라로 방열손실률을 측정 분석하고자 한다. 본 연구에서는 적외선 열화상 카메라 Laser Marker(-60℃ ~ 760℃)를 이용하여 Laser의 표면온도를 측정할 수 있는 미국제조회사인 FLIR社의 T650sc 모델을 이용하여 사업장 폐기물 소각시설의 소각로의 벽면의 온도를 측정하였다. 측정된 온도를 이용하여 복사 열 전달률을 구하기 위한 Stefan-Boltzmann법칙과 대류 열 전달율을 구하기 위한 Newton의 냉각 법칙과 소각로의 면적을 이용하여 로벽의 방열되는 손실을 계산해 보고자한다. 국내의 사업장 폐기물 소각시설 78개 호기 중 소각 방법별(일반소각, 고온소각), 소각로 타입별(Stoker, R/K + Stoker, R/K)로 나누어 대상 시설을 선정하여 현장실측을 진행하였다. 계산 시 사용되는 데이터는 1년간 자료를 이용하여 설문조사된 데이터를 바탕으로 계산되었으며 이를 이용하여 방열손실 계산에 적용하여 분석하였다.
        160.
        2015.08 KCI 등재 서비스 종료(열람 제한)
        홍수시 하천의 유속 측정을 위한 표면영상유속계의 가장 기본이 되는 단계는 질 좋은 영상을 획득하는 것이다. 하지만 영상 획득에 있어 빛이 없는 야간에 발생하는 홍수 흐름을 촬영하는 것은 매우 어렵다. 이에 본 연구에서는 표면영상 유속계의 야간 영상 획득 장치로 원적외선 카메라를 이용하는 방안을 검토하였다. 원적외선 카메라는 별도의 조명을 필요로 하지 않으므로, 주야간 모두 영상을 획득할 수 있는 장점이 있다. 또한 안개나 연기의 영향을 받지 않아서 고정식 표면영상유속계를 구성하는 좋은 대안이 될 수 있다. 원적외선 영상을 이용한 유속 산정의 결과를 비교하기 위해, 보통의 가시광 카메라와 근적외선 카메라를 이용한 동시 촬영을 수행하여 영상을 획득하였고, 시공간 영상분석 방법을 이용하여 분석하였다. 그 결과 소형 프로펠러 유속계로 측정한 유속 자료와 비교하여 원적외선의 주간 영상을 이용할 경우 최소 -9%에서 최대 -19%의 차이를 나타냈고, 야간 영상을 이용할 경우 최소 -10%에서 최대 -23%의 차이를 나타냈다. 또한 일반캠코더의 주간 영상을 이용한 경우와 비교하여 최대 10% 이내의 차이를 보였기 때문에 주야간 유속 측정에 원적외선 카메라의 적용이 어느 정도 가능한 것을 확인하였다. 다만 주간 영상에 비해 야간 영상이 약간 흐려지는 경향이 있기 때문에, 이러한 영상을 적절히 분석하기 위한 지속적인 연구가 필요할 것으로 생각한다.
        6 7 8 9 10