2024/12 12

[docker] docker commit, push 배포하기

container에서 변경사항들도 반영하여 함께 배포하려면 image를 다시 commit 배포해야 한다.  docker container commit1. docker commit 예) docker commit pointpdf pointpdf_new 2. docker images 확인  docker image push1. docker login 2. export DOCKER_ID_USER=여기서 username이 docker hub의 아이디와 다르면 아래와 같은 에러가 뜨니 동일하게 설정해야 한다.denied: requested access to the resource is denied 3. docker tag $DOCKER_ID_USER/:예) docker tag pointpdf_new $DOCKER..

TIL 2024.12.31

[환경구축] docker 이용해서 환경구축하기

환경구축하는데 몇일을 헤매다 드디어 해결했다.docker도 처음 써보고 제대로 된 환경구축도 처음 해보다보니 더 오래 헤맸던 것 같다.torch와 관련된 torch_scatter, torch_sparse도 버전이 안 맞으면 torch와 cuda 사이의 버전 충돌이 일어난다는 걸 몰라서 또 하루를 헤맸다. docker 설치할 때gpu를 써야 되기 때문에 nvidia docker를 깔아야 함(docker tool-kit 설치) docker 실행할 때docker container start docker attach 또는docker exec -it /bin/bash docker 초기 설정아래 사이트 참고해서 docker pull https://hub.docker.com/r/nvidia/cuda/tagscon..

TIL 2024.12.26

[CS231N] Assignment 1 Q1. k-Nearest Neighbor classifier

Assignment 1: https://cs231n.github.io/assignments2024/assignment1/ Assignment 1This assignment is due on Friday, April 19 2024 at 11:59pm PST. Starter code containing Colab notebooks can be downloaded here. Setup Please familiarize yourself with the recommended workflow by watching the Colab walkthrough tutorial below: Note. Ensure ycs231n.github.io train data와 test data(X) 간의 유클리드 거리를 계산하여 비교d..

AE(Auto Encoder), VAE(Variational Auto Encoder)이란?

AE(Auto Encoder)input 데이터를 latent space로 압축한 후 원본 데이터와 유사하게 reconstruction한 output 데이터 출력Encoder: 입력 데이터를 저차원(latent space)으로 압축Latent Space: 중요한 특징만을 보존한 저차원 표현Decoder: Latent Space에서 원래 입력과 유사한 데이터를 복원 VAE(Variational Auto Encoder)input 데이터를 확률 분포로 변환해 더 일반화된 latent space를 학습하고, 이를 샘플링하여 새로운 데이터 생성 가능KL Divergence를 이용해 정규분포를 따르게 하여 일반화가 잘 되도록 한다.덕분에 새로운 샘플을 뽑더라도 자연스럽고 의미있는 데이터를 추출할 수 있다.

Deep Learning 2024.12.22

[논문 리뷰] Open-set Semantic Segmentation for Point Clouds via Adversarial Prototype Framework

Open-set Semantic Segmentation for Point Clouds via Adversarial Prototype Framework https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Open-Set_Semantic_Segmentation_for_Point_Clouds_via_Adversarial_Prototype_Framework_CVPR_2023_paper.pdf 0. Abstract저자들은 Adversarial Prototype Framework(APF)를 제안한다. 이는 open-set 3D semantic segmentation을 다루며, seen class point는 유지하면서 3D unseen class를 구분하는 것을 목..

논문리뷰 2024.12.19

베이지안 이론(Bayesian Theroy)이란?

빈도확률(Frequentist probability)10번 주사위를 던져 1이 나올 확률과 같은 빈도수를 측정하여 계산할 수 있는 확률 베이지안확률(Bayesian probability)빈도수를 파악하기 힘들 때, 특정 명제가 참일 확률사후확률(posterior probability) P(A|B): B(결과)가 발생하였을 때 A(원인)가 발생했을 확률우도확률(Likelihood probability) P(B|A): A(원인)이 발생하였을 때 B(결과)가 발생할 확률사전확률(prior probability) P(A): B(결과)가 나타나기 전에 결정되어 있는 A(원인)의 확률 From GPT사전 확률 P(A)를 바탕으로 새로운 데이터 B가 주어졌을 때 사후 확률 P(A|B)을 계산한다.이 사후 확률 P(A..

Deep Learning 2024.12.18

Preicision, Recall, F1-Score, Sensitivity, PR Curve, ROC Curve, AUPR, AUROC, Confusion Matrix

Confusion Matrix PositiveNegativePositiveTP(True Positive)FP(False Positive)NegativeFN(False Negative)TN(True Negative) TP(True Positive): 실제 Positive를 Positive로 예측FP(False Positive): 실제 Negative를 Positive로 예측FN(False Negative): 실제 Positive를 Negative로 예측TN(True Negative): 실제 Negative를 Negative로 예측 MatrixPrecision: Positive라고 예측했을 때 실제 Positive 비율 Recall(=Sensitivity=TPR): 실제 Positive 중에 Positive..

Deep Learning 2024.12.17

Discriminative Learning, Generative Learning이란?

Discriminative Learning입력(Data) X가 주어지면 출력(Label) Y가 나타날 확률 p(X|Y)를 직접 반환그림과 같이 Discision Boundary를 잘 학습하는 것이 목표Supervised Learning대표적인 예: Linear Regression, Logistic Regression 등데이터가 충분할 경우 좋은 성능을 보이지만 데이터를 구분하는 것이 목표이므로 데이터의 본질을 파악하기 힘들다. Generative Learning데이터 X">X가 생성되면서 pp(Y)">(Y), pp(X">(X|Y)">Y)으로 학습하고, Bayesian을 사용해 pp(X">(Y|XY)">)값을 간접적으로 도출그림과 같이 Joint Probability Distribution (p(X, Y)..

Deep Learning 2024.12.16

L1 Norm, L2 Norm / L1 Loss, L2 Loss 이란?

📌 Norm벡터의 크기를 측정하는 방법두 벡터 사이의 거리를 측정하는 방법 📌 L1 NormNorm 식에서 p가 1인 Norm으로 벡터의 요소에 대한 절댓값의 합Manhattan(맨허튼) norm이라고도 한다.L2보다 outlier(이상치)에 robust(덜 민감)하다. 📌 L2 NormNorm 식에서 p가 2인 Norm으로 피타고라스 정리를 활용했다.Euclidean(유클리드) norm이라고도 한다.제곱의 형태이기 때문에 outlier(이상치)에 예민하나 더욱 일반화된 모델을 생성한다. 📌 L1 Norm, L2 Norm 비교L1은 초록색 외의 선들로 여러가지 path를 가지지만L2는 초록색 선으로 unique shortest path를 가진다.  Loss도 Norm과 유사하게 계산된다.📌 L1..

Deep Learning 2024.12.11

Open Set, Open Vocabulary, Open World 차이점

📌 Open Set학습 데이터에 없는 클래스를 'unknown'으로 처리하는 것이 목표학습한 클래스 외의 입력에 대해서는 reject하거나 학습된 데이터가 아니다 라고 판단하는 것이 특징  📌 Open Vocabulary학습 데이터에 없는 단어 혹은 개념을 처리할 수 있도록 설계하는 것이 목표(낯선 단어를 보고 유추해서 사용하는 사람)Zero-shot learning, 이미지 캡셔닝을 예시로 들 수 있다.예를 들어 '고양이'와 '개'를 학습한 모델이 '여우'와 같은 새로운 개념도 유사성을 통해 처리할 수 있다.  📌 Open World학습 데이터에 없는 클래스가 존재할 가능성을 염두에 두고 이를 처리하거나 적응할 수 있는 환경(낯선 단어를 듣고 일단 기록해두는 사람)데이터셋에 없는 새로운 클래스의 ..

Computer Vision 2024.12.10