Professional Documents
Culture Documents
YOLO 기반 영상 인식 및 직관적 가시화 기술을 적용한 아이 안전 교육 어플리케이션
YOLO 기반 영상 인식 및 직관적 가시화 기술을 적용한 아이 안전 교육 어플리케이션
가천대학교 소프트웨어학과
lys984prms@naver.com, rpt5366@naver.com, beomssoo@naver.com,
aychoi@gachon.ac.kr
Intuitive visualization technology based on image recognition
Child safety education application
O
Yeseul Lee , Hyungseob Song, Beomsoo Kim, Ahyoung Choi
Software Department, Gachon University
요 약
본 논문에서는 아이들이 건강하고 안전한 생활 습관을 기를 수 있도록 물체 인식 및 가시화 기술을 이
용해 안전 교육 콘텐츠를 제공하고 부모가 아이의 상태를 모니터링 할 수 있는 어플리케이션을 제안한
다. 제안한 어플리케이션은 어린이들이 착용한 웨어러블 워치를 통해 가속도, 자이로 센서 신호를 획득
하고 어린이의 손 행동 패턴을 인식한다. 손 행동 패턴 인식을 위해 전처리 후 LDA, QDA 적용한 결과
정확도가 평균 96% (LDA), 85% (QDA)로 나타남을 확인하였다. 딥러닝 기반의 YOLO 영상인식 기술을
적용하여 손을 인식하고 어린이들이 안전 사고 등이 발생했을 때 결과를 증강하여 보여주도록 하였다.
1
1. 서 론 뒤 아이가 카메라 앞에서 양치질을 하면 칫솔에 있는
3D 모션센서와 얼굴 인식 기술을 이용해 16개 양치
최근 아이들이 디지털 기기에 대한 노출이 많아 지고 부위를 모니터링 하며 아이가 양치 상황을 확인할 수
창의력 향상을 위한 교육 방식에 대한 고민이 있게 해준다[2].
증가하면서 교육 분야에도 디지털교과서 등의 형태로 이러한 추세에 맞춰 본 논문에서는 아이들의 행동을
체험할 수 있는 교육 콘텐츠나 응용 어플리케이션 개발 모니터링하고 안전에 대한 교육이 가능한 아이 안전
시장이 활성화 되고 있다. 에듀테크는 정규교육과정의 교육 어플리케이션을 제안한다. 이 어플리케이션은
국어, 수학과 같은 과목의 보조역할에서 그치는 것이 웨어러블 디바이스를 착용한 아이의 행동을
아니라 인공지능(AI), 증강/가상현실(AR/VR), 모니터링하고, 아이들이 특정 행동을 하였을 때 어떤
사물인터넷(IoT)을 활용해 직접 보고 만질 수 있는 결과가 나타나는지를 직관적으로 가시화 하여 위험
새로운 형태의 교육 환경을 경험하게 해주고 있다. LG 행동을 했을 때 결과를 미리 예측하게 도와준다.
U+에서는 ‘아이들 나라’ 프로그램을 개발하여 AR 직관적인 정보 가시화를 위해서는 영상내 객체 인식 과
기술을 이용해 아이들이 그린 그림을 인식해 수족관의 가시화가 필요하며 객체 인식을 위해 본 연구에서는
물고기에 무늬를 적용시키거나 공룡, 동물, 곤충, 바다 딥러닝 알고리즘을 적용하였다. 아이의 행동 패턴
생물을 띄우는 콘텐츠 등을 제공하고 있다[1]. 인식을 위해서는 웨어러블 워치로부터 가속도, 자이로
정규 교과 과정뿐 만 아니라, 아이들의 생활습관이나 센서를 획득하여 획득된 신호의 패턴을 supervised
행동을 모니터링하고 이를 직관적으로 가시화 하여 learning 기법을 적용하여 분석하였다. 제안한 방법을
아이들이 쉽게 이해할 수 있도록 하는 제품이 출시 통해 부모가 아이의 상태를 실시간으로 확인하고
되고 있다. 브러쉬 몬스터는 ‘브러쉬 몬스터’라는 AR 아이에게도 위험상황에 대한 직관적인 피드백을 줄 수
기반으로 아이들의 양치 습관을 모니터링 해주는 있다.
어플리케이션을 서비스하고 전용 스마트 칫솔을
판매하는 회사이다. 전용 칫솔과 어플리케이션을 연동한 2. 제안하는 방법
1315
2020년 한국컴퓨터종합학술대회 논문집
Walking
Running
Sleeping
Eating...
그림 2. 센서 기반 행동 인식 알고리즘 프로세스
그림 3. 실시간 물체 인식 흐름도
사용자로부터 3축의 가속도 센서 값과 자이로 센서
값을 획득하면, 센서 값들에 1차 Butterworth Lowpass- tensorflow lite와 YOLOv2알고리즘을 통해
filter을 적용하여 noise를 제거 한다. 각 센서 데이터의 evaluation한 물체의 위치에 위험성을 나타낼 수 있는
3축 값을 하나로 합치기 위해서 그 다음 이로부터 그래픽 효과를 넣어준다. Evolution한 물체가 사람일
SVM(Signal Vector Magnitude)를 구하여 first-order 때만 효과가 적용되며 이 외에는 효과가 적용되지
features로 사용하였다. Second-order feature로는 각 않는다. 그래픽 효과는 뜨거운 물체에 의한 화상, 칼과
first-order feature에 Butterworth lowpass filter를 한번 같이 날카로운 물체에 의한 자상을 표현한다. 각 표현은
더 적용하여 신호를 획득하였다. 이렇게 추출한 1차, 버튼으로써 ON/OFF를 조절한다.
2차 features들로부터 평균, 표준편차, 에너지, 신호 간
1316
2020년 한국컴퓨터종합학술대회 논문집
그림 5 데이터의 특징 추출 결과
표 1 행동 패턴 인식 결과
LDA QDA
Correct rate (%) Correct rate (%)
Trial 1 100% 100%
Trial 2 80% 100%
Trial 3 100% 50%
1317