본문 바로가기

Deep Learning53

[모두를 위한 cs231n] Lecture 1. Introduction. 앞으로 이런 것들을 배울거에요😄 시작하며 안녕하세요 Steve-Lee입니다. 오늘부터 저와함께 cs231n의 세계를 여행하게 된 것을 진심으로 환영합니다😄 스탠포드 대학교의 자타공인 최고의 Deep Learning 강좌인 cs231n을 통해 Deep Learnig에 대해 하나하나 배워보도록 하겠습니다. 그럼 시작하겠습니다. 어쩌면 카메라가 세상에 있는 사람 수보다 많지 않을까?🙄 CSICO에서 수행한 2015~2017 통계자료 인터넷 트래픽 중 80%는 인터넷 비디오데이터이다 인터넷 데이터 대부분이 시각적 데이터이다 그러므로 시각적 데이터를 잘 이해하는게 무엇보다 중요하다 일부는 시각 데이터를 암흑 물질(Dark Physics)라고 합니다 시각 데이터가 대부분이지만 이를 이해하고 해석하는 일은 상당히 힘들다는 의미인것 같네요 Youtu.. 2020. 4. 30.
모두를 위한 cs231n (feat. 모두의 딥러닝 & cs231n) cs231n 시작합니다! 안녕하세요. Steve-Lee입니다. 작년 2학기 빅데이터 연합동아리 활동을 하면서 동기, 후배들과 함께 공부했었던 cs231n을 다시 시작하려고 합니다. 제가 공부하면서 느꼈던 점들과 중요하다고 생각한 부분들을 강의와 참고자료들을 참고하여 정리하려고 합니다. 모두의 cs231n은 cs231n을 공부하는 모든 사람들을 위한 포스팅이 되었으면 합니다. '모두의 딥러닝' (모두를 위한 딥러닝-by SungKim)에서 영감을 받아 모두를 위한 cs231n을 하나씩 정리해보고자 합니다. 부족한 점이 많겠지만 잘 부탁드리겠습니다🤗 목표는 매주 또는 격주로 강의 하나씩을 요약. 정리하여 포스팅하는 것입니다. 학기 중이라 여러 일정이 겹칠 수 있겠지만 매주. 꾸준히 정리하여 찾아뵙도록 하겠습.. 2020. 4. 30.
[모두를 위한 cs231n] Lecture 6. Activation Functions - ReLU함수의 모든 것 ReLU함수의 모든것 ReLU함수 파헤치기 이번 시간에는 cs231n Image Seminar를 통해 학습하면서 궁금했던 점들을 하나하나 풀어보도록 하겠습니다😃 첫 손님은 ReLU함수입니다. ReLU함수의 특징과 Dead ReLU에 대해서 알아보도록 하겠습니다😊 모두를 위한 cs231n 더보기 모두를 위한 cs231n 😀 👉🏻 시작합니다! 🎈 모두를 위한 cs231n (feat. 모두의 딥러닝 & cs231n) 👉🏻 Neural Network 기초 📗 * Backpropagation Lecture4. Backpropagation and Neural Network. 오차역전파에 대해서 알아보자😃 👉🏻 Training Neural Network Part I 📑 - Activation Function 파헤치기.. 2020. 4. 21.
Git의 기초. 이전 commit을 삭제 하는 방법. file_size_limit 처리방법 Episde5: Large File을 Push하자 Error를 마주치게 되었다. 해석하자면 Git은 100.00MB파일까지 리모트 저장소에 저장이 가능해요 문제를 해결하는 방법으로는 두 가지 방법이 존재한다. 첫 째, gitignore File을 적용하는 방법 둘 째, 이전 커밋을 삭제한 뒤 해당 파일을 지워주는 방법이 있다. 안되는 git을 계속해서 push해보는 삽질을 여러번... commit을 취소하기로 마음먹었다. 오늘은 두 번째 방법인 커밋을 삭제하는 방법을 공유하고자 한다. 첫 번째 방법인 gitignore은 다음번에 다루도록 하겠다. (이 방법이 더 좋을 것 같다는 생각을 한다.) Solution git log 내가 되돌리고 싶은 commit은 최근에 수행했던 두 번의 commit이다. 지금.. 2020. 4. 7.
[알고리즘의 성능 표현 방법] 시간 복잡도와 공간 복잡도 그리고 빅오 표기법 Chap1. 코딩 게임 첫 걸음 떼기 1-4. 알고리즘의 성능은 어떻게 표현할까? 알고리즘의 성능은 시간 복잡도(Time Complexity)와 공간 복잡도(Space Complexity)로 표현한다. 시간 복잡도(Time Complexity): 시간 복잡도는 입력 값의 개수와 알고리즘의 처리 시간과의 상관관계를 표현한 말이다. 입력 데이터의 양이 많아짐에 따라 처리 속도가 어떻게 변하는지를 수학의 기호를 빌려 표현하는 방식이다. "쉽게 생각하면 수학의 방정식을 떠올리면 된다." x축을 입력 값의 개수로 놓고 y축을 처리 시간으로 봤을 때, x가 증가함에 따라 y가 어떻게 변화하는 지를 표현하는 것이다. e.g x와 y가 일정한 비율로 증가한다면 선형(linear)시간 복잡도를 가진다고 표현한다. 지수와.. 2020. 4. 1.
파이토치(PyTorch)-3.Neural Network 구현하기 3. Neural Net 구현 with PyTorch [모두를 위한 cs231n] Lecture 8 - Part4. PyTorch Framework PyTorch Framework PyTorch Framework에 대한 모든 것을 알아보겠습니다 안녕하세요 Steve-Lee입니다. Lecture 8 Part 3의 주제는 PyTorch Frame work입니다. PyTorch는 Face book에서 개발한 Deep Learning Fram.. deepinsight.tistory.com 신경망은 torch.nn 패키지를 사용하여 생성할 수 있다. 지금까지 autograd를 살펴봤다. nn은 모델을 정의하고 미분하는 데 autograd를 사용한다. nn.Module은 계층(Layer)과 output을 반환하는 .. 2020. 2. 21.