강의 내용 정리하기8 [Tensorflow 101] 1. 딥러닝 개요(with 회귀) 봉수골 개발자 이선비 님의 Tensorflow 101 강의 내용을 바탕으로 포스팅하였음을 사전에 안내드립니다. 링크: https://www.youtube.com/playlist?list=PLl1irxoYh2wyLwJutUZx5Q_QEEDZoXBnz 1. AI와 머신러닝 그리고 딥러닝 1️⃣ 인공지능 인간의 학습능력, 추론능력, 지각능력을 인공적으로 구현하려는 컴퓨터 과학의 세부분야 중 하나 2️⃣ 머신러닝 오늘 날의 인공지능을 구현하는 가장 유망하고 유명한 분야 ✔️ 머신러닝 학습의 종류 지도학습 비지도학습 둘의 차이는 정답(y, target, label)의 유무이며, 머신러닝의 핵심은 지도학습이다. ✔️ 지도학습의 대표적인 문제 회귀 분류 둘의 기준이 되는 것은 예측하고자 하는 정답 값(변수)의 종류이.. 강의 내용 정리하기/Tensorflow101 2022. 11. 28. [K-mooc] 8. Principal Componet Analysis 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 1차시: PCA 소개 1. 비지도학습 비지도 학습은 y값(target, label, 정답)이 없는 케이스에 대한 학습으로 함수를 적용시켜 X값(input) 자체에 내재하고 있는 정보들을 어떻게 찾고 추출할 것인지를 중점적으로 살펴보게 된다. 대표적인 예시: 차원축소, 군집화 가. 차원숙소(dimensionality reduction, feature extraction) Feature Extraction 이라고 표현하기도 하며, 우리가 다루고 있는 변수들을 어떻게 하면 더 요약적으로 잘 표현할 수 있는가에 대한 것이다. 지도학습에서는 y값과 feature들의 관계를 고려했었는데, y값이 없는 경우에는 어떻.. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 22. [K-mooc] 7. Ensemble Learning 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 2차시: Ensemble Learning 소개 1. Ensemble Learning DT는 분류나 예측에 대해 높은 해석력을 가진다는 장점이 있지만 데이터의 작은 변화에 민감하다는 한계를 가지고 있다. 이러한 한계를 극복하기 위해 사용하는 것이 바로 앙상블 모형이다. 가. 정의와 Random Forest 앙상블 알고리즘은 약한 분류기들이 모여서 voting을 진행하고 강력한 분류기를 구성하는 알고리즘으로 여러개의 모형이 합쳐져 집단지성을 발휘하는 알고리즘이라고 할 수 있다. 여러 모델이 모여 있기 때문에 한 모델에서 예측이 빗나가더라도 다른 모델에서 보정이 가능하다는 장점이 있고, 일반적으로 다양한 머신.. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 22. [K-mooc] 6. Decision Tree 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 1차시: Decision Tree 1. Decision Tree 🌳 가. 정의 분류와 회귀 작업 및 다중 출력 작업도 가능한 다재다능한 머신러닝 방법론 IF-THEN 룰에 기반해 해석이 용이하다. (화이트 박스 모델) - 변수 하나 하나에 적합한 분할을 한다 - 한 번에 한 개의 변수를 사용하여 정확한 예측이 가능한 규칙들의 집합을 생성 일반적으로 예측 성능이 우수한 RF의 기본 구조 CART 훈련 알고리즘을 이용해 모델을 학습함 나. DT 기본 구조 및 용어 ✔️ Root node: 분할 전의 초기의 상태 ✔️ Branch: edge라고 부르기도 하며, 노드에서 노드로 가는 길목 ✔️ Decision .. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 22. [K-mooc] 4. Model Learning with Optimization 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 머신러닝에서 학습이란 최적화이며, 최적화란 loss를 minimize해주는 방식을 정의하는 것이다. 2차시: 경사하강법 개요 Iterative Algorithm-based Optimization: 일반적인 상황에서 사용할 수 있는 최적화 방법 1. Gradient Descent(경사하강법) gradient는 기울기, 경사를 의미하며 기울기가 작아지는 방향을 찾고 해당 방향으로 한 걸음씩 계속 내려가는 방식을 의미한다. 그럼 왜 기울기일까? 기울기의 방향은 함숫값을 가장 빠르게 올려줄 수 있는 뱡향을 의미한다. 그 반대 방향으로 가게 되면 반대로 함숫값이 가장 빠르게 줄어들게 될 것이다. 우리의 목표는 l.. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 22. [K-mooc] 3. Classification(KNN, 로지스틱 회귀모형) 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 1차시: 머신러닝 분류 모델링 1. Bias-Variance Trade off 가. Bias 예측 값이 실제 값과 얼마나 떨어져 있는가? 혹은 얼마나 치우쳐져 있는가? 쉽게 말해서 error, 오차라고 생각할 수 있다. 나. Variance 우리에게 주어진 데이터는 보통,모집단으로부터 샘플링된 데이터이다. 이때 모집단은 굉장히 큰 데이터 집단이며, 어떤 방식으로 샘플링 하느냐에 따라 여러 종류의 샘플 데이터가 생성될 수 있다. 이렇게 생성된 샘플들에는 차이가 있을 것이고, 샘플로 학습시킨 최종적인 모형도 차이가 존재할 것이다. 그리고 이러한 차이가 바로 변동성, variance를 의미한다. 다. Bias.. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 21. [K-mooc] 2. Machine Learning Pipeline 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 1차시: 머신러닝 프로세스 개요 1. 머신러닝 프로세스 개요 가. 머신러닝 과정 나. Data 관련 용어 Dataset: 정의된 구조로 모아져 있는 데이터의 집합 Data point(observation): dataset에 속해 있는 하나의 관측치 Feature(Variable, Attribute): 데이터를 구성하는 하나의 특성 - 숫자형, 범주형, 시간, 텍스트, 이진형 등의 값이 들어가 있을 수 있다. Label(Target, Response): 입력 변수들에 의해 예측, 분류되는 출력 변수, 우리가 맞춰야 할 변수이다. 신용점수 예측 모델에서 feature는 직업, 연봉 등이 될 수 있고 labe.. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 21. [K-mooc] 1. Introduction to Machine Learning(머신러닝 개요, 선형회귀) 성신여대 김영훈 교수님의 K-MOOC 실습으로 배우는 머신러닝 강의 내용을 바탕으로 포스팅하였습니다. 1차시: 인공지능과 머신러닝 개요 1. 머신러닝의 발전 머신러닝의 발전에 큰 역할을 한 것은 아래 2가지, 빅데이터와 분산화된 컴퓨팅의 등장이다. 1️⃣ 빅데이터시대의 도래 2️⃣ 분산화된 컴퓨팅의 등장(효율적이고 빠른 계산이 가능한 장비의 등장), GPU computing 기술 💡 CPU computing VS GPU computing CPU는 중앙처리장치로 기본적인 연산과 계산을 해주는 장치이다. 보통은 CPU 컴퓨팅을 이용해 계산을 해왔지만, 최근 GPU 컴퓨팅 기술을 이용하여 굉장히 효율적으로 계산을 할 수 있게 되었다. CPU와 GPU를 활용하여 그림을 그린다고 가정하면, CPU는 그림을 그리기.. 강의 내용 정리하기/실습으로 배우는 머신러닝 2022. 11. 21. 이전 1 다음