본문 바로가기

전체 글142

랜(LAN)과 왠(WAN) 1. 랜 LAN 과 왠 WAN 네트워크는 접속할 수 있는 범위에 따라 크게 두 가지로 나뉜다.먼저, 랜( LAN )은 Local Area Network '근거리 통신망'의 약자로 말 그대로 가까운 거리의 범위를 가진 또는 어떤 건물 안이나 특정 지역을 범위로 가진 네트워크다. 예) 사무실이나 가정과 같이 지리적으로 제한된 곳에서 컴퓨터, Tv, 노트북, 프린터 등을 연결  반대로 왠 ( WAN )은 Wide Area Network '광역 통신망'의 약자로 넓은 범위에 구축된 네트워크다. 랜을 하나로 묶는 거대한 네트워크로 보면 되며, 국가, 도시, 대륙처럼 매우 넓은 범위를 연결한다. (ISP - Internet Service Provider 가 제공하는 서비스를 사용해 구축된 네트워크다.) 범위가 넓은.. 2024. 5. 9.
비트(bit)와 바이트(byte) 1. 비트와 바이트 컴퓨터는 전자 스위치로 구성된 전기 장치이며, 이 스위치는 전기적 신호를 통해 켜거나 끌 수 있다.이를 이용하여 정보를 저장하고 전달하는 것이다.각각의 스위치는 '켜진 상태(On)'과 '꺼진 상태(Off')를 나타내는데, 이 각각의 상태를 각각 1과 0으로 표현한다. 즉, 컴퓨터는 두 가지의 (2진수의 0과 1)형태만 이해하고 사용할 수 있다. (이런 0과1의 집합을 디지털 데이터 (Digital Data) 라고 한다.) 이 1과 0을 컴퓨터에서 데이터를 나타내는 가장 작은 단위인 '비트'라고 부르며, 비트는 전기 충전도, 광 펄스, 전파 신호의 유무로써 표현되기도 한다.  컴퓨터는 일반적으로 8개 단위의 비트(8bit)를 하나의 그룹으로 묶어 처리하는데 이를 바이트(Byte)라 한다.. 2024. 5. 9.
Google Colab에 이미지 업로드하는 법 1. 먼저, 구글 드라이브에 Colab에 올릴 사진을 업로드 한다. 2. 아래 방법대로 링크 복사를 눌러준다. 다른 사람에게도 이미지가 보이게 하고 싶을 경우, 링크 복사 대신 공유를 눌러 일반 엑세스를 '제한됨'이 아니라 '링크가 있는 모든 사용자'로 바꾼 후에 링크를 복사한다. 3. Colab에서 텍스트 셀을 생성해 복사한 링크를 아래 양식으로 변경해준다. ⇓ 위처럼 링크의 마지막 부분에 /view? 로 시작하는 부분을 제거하고 앞에 file/d/을 uc?id= 로 바꿔준다. 이미지가 공유되게 한 링크를 복사한 경우도 마찬가지다. 4. 이미지 삽입을 위한 HTML 작성 width와 height을 이용해 이미지에 맞게 이미지의 크기를 정해준다. 5. 결과 2023. 8. 24.
파이토치(PyTorch) 기초 한 번에 part2 해당 글은 이수안 컴퓨터 연구소의 파이토치 한번에 끝내기 PyTorch Full Tutorial Course 의 강의 자료를 정리한 글입니다. Autograd(자동미분) torch.autograd 패키지는 Tensor의 모든 연산에 대해 자동 미분 제공 이는 코드를 어떻게 작성하여 실행하느냐에 따라 역전파가 정의된다는 뜻 backprop를 위해 미분값을 자동으로 계산 requires_grad 속성을 True로 설정하면, 해당 텐서에서 이루어지는 모든 연산들을 추적하기 시작 기록을 추적하는 것을 중단하게 하려면, .detach()를 호출하여 연산기록으로부터 분리 기본적으로 텐서는 requires_grad를 False로 가지고 있다. requires_grad_(...)는 기존 텐서의 requires_grad.. 2023. 6. 3.
파이토치(PyTorch) 기초 한 번에 part1 해당 글은 이수안 컴퓨터 연구소의 파이토치 한번에 끝내기 PyTorch Full Tutorial Course 의 강의 자료를 정리한 글입니다. 파이토치(PyTorch)란 페이스북이 초기 루아(Lua) 언어로 개발된 토치(Torch)를 파이썬 버전으로 개발하여 2017년도에 공개 초기에 토치(Torch)는 넘파이(NumPy) 라이브러리처럼 과학 연산을 위한 라이브러리로 공개 이후 GPU를 이용한 텐서 조작 및 동적 신경망 구축이 가능하도록 딥러닝 프레임워크로 발전시킴 파이썬답게 만들어졌고, 유연하면서도 가속화된 계산 속도를 제공 파이토치의 구성요소 torch: 메인 네임스페이스, 텐서 등의 다양한 수학 함수가 포함 torch.autograd: 자동 미분 기능을 제공하는 라이브러리 torch.nn: 신경망 .. 2023. 6. 3.
[논문리뷰] Transformer (Attention Is All You Need) 해당 글은 wikidocs의 16 - 01 트랜스포머(Transformer)에 대한 글을 정리한 글입니다. 기존 Seq2Seq 모델의 한계Seq2Seq2 모델은 위와 같은 모습을 가진다. 인코더 파트에서는 입력 문장의 모든 단어들을 순차적으로 입력받고, 마지막에 단어들로부터 얻은 모든 정보들을 압축해서 하나의 벡터로 만든다. 이 벡터를 컨텍스트 벡터(Context Vector)라 부른다. 이 Context Vector는 입력 문장에 대한 문맥적인 정보를 담게 되는데 디코더는 해당 벡터를 받아 번역된 단어를 한 개씩 순차적으로 출력한다. 한 단어에 대한 계산은 앞에 단어에 대한 계산이 끝나야 가능하니 정보의 흐름에 병목 현상(Bottleneck)이 일어날 수 있다는 문제점이 있다. 입력 문장의 길이가 짧던.. 2023. 5. 29.
배치 정규화(Batch Normalization) Normalizing training sets신경망의 훈련을 빠르게 할 수 있는 하나의 방법중에 입력으로 들어오는 Feature들을 정규화(Normalizing)이 있다. 위의 표는 두 개의 입력 특성을 가진 훈련 데이터 세트의 분포(산포도)를 나타낸 표다. 두 단계에 따라서 입력을 정규화한다. 1). 데이터 세트의 평균을 0으로 만든다.μ = 1/m 곱하기 1부터 m까지 $x^{(i)}$의 합으로 평균값을 나타내는 벡터다.x는 그럼 모든 훈련 데이터에 대해서 x-μ로 설정된다. (원래 값에서 평균값을 빼주는 것)0의 평균을 갖게 될 때까지 훈련 세트를 이동한다. 2). 분산을 정규화한다. 아직 특성 x1이 x2보다 더 큰 분포도를 가지니, 이 둘을 맞춰주기 위해 분산을 정규화한다.$σ^2$ = 1/m .. 2023. 5. 20.
Feature Scaling (ft. 입력 특성 정규화하기) 해당 글은 유튜브 채널(https://www.youtube.com/@Deeplearningai) 의 Machine Learning강의를 정리한 글입니다.  집의 크기와, 방의 개수에 따라 집의 가격을 예측하는 다중 선형 회귀 모델이다. 집의 사이즈의 범위는 방의 개수의 범위보다는 훨씬 클 것이다. 예로 집의 사이즈 범위를 300~2000, 방의 개수의 범위를 0~5라 친다면 큰 가중치를 작은 피처값에 적용하는 것이 합리적일 것이다.  하나의 데이터 샘플을 가지고 가중치를 줘보자. [ $x_1 = 2000, x_2 = 5, 집의 가격 = $500k$ ]하단의 왼쪽 식이 큰 가중치 $w_1$값을 큰 피처값 $x_1$에 부여한 경우다. 최종값이 너무 커져버러셔 실제 집의 가격(500k 달러)와 차이가 너무 크.. 2023. 5. 19.
최적화 알고리즘 (ft. Momentum, RMSprop, Adam) 경사 하강법보다 빠른 몇 가지 최적화 알고리즘이 존재한다. 그 알고리즘들을 이해하기 위해서는 먼저 지수 가중 평균(Exponentially weighted averages)을 이해해야한다지수 가중 평균에 대한 글은 아래 글을 참조해주세요. 지수 가중 평균(Exponentially weighted averages)해당 글은 유뷰트 채널(https://www.youtube.com/@Deeplearningai) 의 Improving Deep Neural Networks 강의를 정리한 글입니다. Exponentially weighted averages(지수 가중 평균) 경사 하강법보다 빠른 몇 가지 최적화 알고리bruders.tistory.com Gradient descent with momentum모멘텀 알고.. 2023. 5. 18.