You are on page 1of 3

머신러닝 알고리즘

출처
TCP schoo http://www.tcpschool.com/
생활코딩 https://opentutorials.org/course/1
네이버 소프트 웨어야 놀자
https://www.playsw.or.kr/artificial/view/playswtv/684?
currentTab=ai_data_video_hello_ai&path=ai_data_video_hello_ai
Artificial Intelligence Theory : 비지도 학습 https://076923.github.io/posts/AI-3/
탐구동기
: 머신러닝의 정의와 과정에 대해 알아본 후, 머신러닝 알고리즘 유형에 지도학습, 비지도학습, 강화학습이
있다는 것을 알게 되었고 관련내용을 탐구하게 되었다.

탐구내용
1. 지도학습(supervised Learning)

지도학습은 전통적인 머신러닝에서 가장 일반적인 기술로, 데이터를 바탕으로 데이터 간 패턴과 관계를
이해하고, 동일한 형식의 다른 데이터의 새로운 견본이 주어졌을 때 결과를 예측한다.
즉, 지도학습은 학습을 통해 각 데이터의 레이블*을 판단하는것이다.
이러한 지도학습의 방법은 다시 두가지 방법으로 나뉜다.

- 회귀(Regression)
: 오른쪽 그림과 같이 데이터 점 집합을 통해 전체 데이터 모양과 적합하게 선을 그리는 것이다.
하지만 데이터 점 집합은 무작위가 아니라 어떠한 경향을 가지면서 분포한다. 머신러닝을 통해 이
데이터를 학습시키면 점들이 사인곡선(초록색 선) 형태로 분포해 있다는 일반적인 특성을 도출해낼 수
있다. 따라서 이 모델을 통해 테스트 데이터를 집어넣으면 입력값의 수치에 따라 이 사인곡선 위의 한
점에 해당하는 값을 출력하게 된다.
1). 선형회귀
: 회귀의 한 방법으로 최소제곱법*을 이용해 회귀식*을 만드는 것이다. 하지만 1 차 함수 형태로 나타기
때문에 출력값이 연속형일때는 사용가능 하지만 범주형 데이터에는 사용할 수 없다.
2). 로지스터회귀
: 선형회귀의 응용기법중 하나로, 출력형이 범주형 데이터인 경우 사용할 수 있다. 이는 최솟값과
최댓값이 특정한 값으로 수렴하고 그 사이는 S 자 커브 모양으로 굴곡이 진 모양의 함수인 로지스틱
함수를 회귀식으로 사용한다. 이런 로지스터 회귀 방법은 범주형으로 완전히 분리된 값을 구분하기
좋다는 특징이 있다.

-분류(Classification)
: 특징에 따라 견본의 범주를 예측한다.
1). 이진 분류
어떤 데이터에 대해 두 가지 중 하나로 분류 할 수 있는 것
2). 다중 분류
어떤 데이터에 대해 여러 값 중 하나로 분류 할 수 있는 것
이러한 지도학습방법은 가까운 미래의 날씨 예측, 가격을 예측하는데 사용, 스팸 메일을 분류시 사용, 질병의
판단에 사용된다.
2. 비지도(자율) 학습 (Unsupervised Learning)
: 데이터를 수동으로 검사해서는 찾기 어려운 데이터의 기본 패턴을 찾는다.

1).군집화
: 레이블이 없는 학습 데이터들의 특징을 분석하여 서로
동일하거나 유사한 특징을 가진 데이터끼리 그룹화 함으로써
레이블이 없는 학습 데이터를 군집으로 분류한다. 그리고
새로운 데이터가 입력되면 지도학습의 분류 모델 처럼 학습한
군집을 가지고 해당 데이터가 어느 군집에 속하는지를
분석한다.

- 군집화의 분류

밀도 기반 군집화 K- 평균 군집화

2). 차원 축소
: 다차원의 데이터를 차원을 축소하여 저차원의 새로운 데이터로 변경해 생성하는 것이다. 여러 특성과 변수
간에 존재하는 상관관계를 이용하여 주요 구성요소에 대한 분석을 진행한다. 즉, 데이터의 특성 수를 줄이는
것으로 상관관계가 있는 여러 특성을 하나로 합치는 과정이다.
- 특성 선택 : 특정 특성에 종속적인 성향이 강해 사용하지 않아도 되는 특성
- 특성 추출 : 특성을 하나로 압축하여 새로운 특성을 만들어 내는 것

3. 강화학습 (Reinforcement Learning)


: 행동심리학*에서 비롯된 것으로 환경에서 알고리즘의 행동에 따라 알고리즘을 보상하거나 처벌하는 방식으로
작동한다. 즉, 수행한 행동의 피드백을 이용하여 최종 목표를 향한 다양한 시나리오에서 어떤 작업 또는 작업
시퀀스가 더 유익한지 학습한다. 이는 목표가 무엇인지 알고 있지만 목표를 달성하는 데 합당한 행동이 무엇인지
모를 때 유용하다.
강화학습 모델의 수명주기는 의사 결정 모델링을 위한 수학적 프레임 워크를 제공하는 마르코프 결정과정을
바탕으로 한다. 시뮬레이터는 환경에서 행동을 취하고 그에 따라 보상과 벌칙을 받는다. 이후 시뮬레이터는 환경,
에이전트의 행동, 각 행동 후에 받는 보상을 모델링 하고 결과를 측정함으로써 학습하여 마르코프 체인을
형성한다. 이런 식으로 경험을 쌓으면 함정을 피하고 목표까지 갈 수 있도록 조정된다. 또한 강화학습은 즉각적인
만족과 장기적인 결과의 균형을 맞추는 것이 중요하다.
- 긍정적인 강화 : 원하는 행동에 동기를 부여하기 위한 것으로 행동 후 보상을 주는 것
- 부정적인 강화 : 원하지 않는 행동을 억제하기 위해서 행동 후 벌칙을 주는 것

배운점과 느낀점
지도학습과 비지도학습, 강화학습에 대한 구체적인 내용을 조사해 보며 추상적으로만 알고 있던 내용을
구체적으로 알아갈 수 있었다. 특히나 자료 조사시 같은 내용에 대해 다양한 방식으로 설명되어있는 것들이 많아
어려움을 겪었다. 하지만 자료들을 읽어보고 내가 다시 정리해보는 과정을 거치면서 어려웠던 개념들을 더욱
쉽게 이해 할 수 있는 경험이 되었다.

1
레이블* : 학습기에 데이터와 함께 입력하는 정답
최소제곱법*: 각 데이터별 값과 직선까지의 거리 분산을 최소화 하도록 직선의 모양을 결정함
회귀식* : 직선을 나타내는 1 차 함수
행동심리학* : 행동을 연구주제로 하여 인간과 다른 동물의 행동에 관심이 있는 분야

You might also like