2024/12 10

[docker] docker commit, push 배포하기

container에서 변경사항들도 반영하여 함께 배포하려면 image를 다시 commit 배포해야 한다.  docker container commit1. docker commit 예) docker commit pointpdf pointpdf_new 2. docker images 확인  docker image push1. docker login 2. export DOCKER_ID_USER=여기서 username이 docker hub의 아이디와 다르면 아래와 같은 에러가 뜨니 동일하게 설정해야 한다.denied: requested access to the resource is denied 3. docker tag $DOCKER_ID_USER/:예) docker tag pointpdf_new $DOCKER..

TIL 2024.12.31

[환경구축] docker 이용해서 환경구축하기

환경구축하는데 몇일을 헤매다 드디어 해결했다.docker도 처음 써보고 제대로 된 환경구축도 처음 해보다보니 더 오래 헤맸던 것 같다.torch와 관련된 torch_scatter, torch_sparse도 버전이 안 맞으면 torch와 cuda 사이의 버전 충돌이 일어난다는 걸 몰라서 또 하루를 헤맸다. docker 설치할 때gpu를 써야 되기 때문에 nvidia docker를 깔아야 함(docker tool-kit 설치) docker 실행할 때docker container start docker attach 또는docker exec -it /bin/bash docker 초기 설정아래 사이트 참고해서 docker pull https://hub.docker.com/r/nvidia/cuda/tagscon..

TIL 2024.12.26

[논문 리뷰] Open-set Semantic Segmentation for Point Clouds via Adversarial Prototype Framework

Open-set Semantic Segmentation for Point Clouds via Adversarial Prototype Framework https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Open-Set_Semantic_Segmentation_for_Point_Clouds_via_Adversarial_Prototype_Framework_CVPR_2023_paper.pdf 0. Abstract저자들은 Adversarial Prototype Framework(APF)를 제안한다. 이는 open-set 3D semantic segmentation을 다루며, seen class point는 유지하면서 3D unseen class를 구분하는 것을 목..

논문리뷰 2024.12.19

베이지안 이론(Bayesian Theroy)이란?

빈도확률(Frequentist probability)10번 주사위를 던져 1이 나올 확률과 같은 빈도수를 측정하여 계산할 수 있는 확률 베이지안확률(Bayesian probability)빈도수를 파악하기 힘들 때, 특정 명제가 참일 확률사후확률(posterior probability) P(A|B): B(결과)가 발생하였을 때 A(원인)가 발생했을 확률우도확률(Likelihood probability) P(B|A): A(원인)이 발생하였을 때 B(결과)가 발생할 확률사전확률(prior probability) P(A): B(결과)가 나타나기 전에 결정되어 있는 A(원인)의 확률 From GPT사전 확률 P(A)를 바탕으로 새로운 데이터 B가 주어졌을 때 사후 확률 P(A|B)을 계산한다.이 사후 확률 P(A..

Deep Learning 2024.12.18

Preicision, Recall, F1-Score, Sensitivity, PR Curve, ROC Curve, AUPR, AUROC, Confusion Matrix

Confusion Matrix PositiveNegativePositiveTP(True Positive)FP(False Positive)NegativeFN(False Negative)TN(True Negative) TP(True Positive): 실제 Positive를 Positive로 예측FP(False Positive): 실제 Negative를 Positive로 예측FN(False Negative): 실제 Positive를 Negative로 예측TN(True Negative): 실제 Negative를 Negative로 예측 MatrixPrecision: Positive라고 예측했을 때 실제 Positive 비율 Recall(=Sensitivity=TPR): 실제 Positive 중에 Positive..

Deep Learning 2024.12.17

Discriminative Learning, Generative Learning이란?

Discriminative Learning입력(Data) X가 주어지면 출력(Label) Y가 나타날 확률 p(X|Y)를 직접 반환그림과 같이 Discision Boundary를 잘 학습하는 것이 목표Supervised Learning대표적인 예: Linear Regression, Logistic Regression 등데이터가 충분할 경우 좋은 성능을 보이지만 데이터를 구분하는 것이 목표이므로 데이터의 본질을 파악하기 힘들다. Generative Learning데이터 X">X가 생성되면서 pp(Y)">(Y), pp(X">(X|Y)">Y)으로 학습하고, Bayesian을 사용해 pp(X">(Y|XY)">)값을 간접적으로 도출그림과 같이 Joint Probability Distribution (p(X, Y)..

Deep Learning 2024.12.16

L1 Norm, L2 Norm / L1 Loss, L2 Loss 이란?

📌 Norm벡터의 크기를 측정하는 방법두 벡터 사이의 거리를 측정하는 방법 📌 L1 NormNorm 식에서 p가 1인 Norm으로 벡터의 요소에 대한 절댓값의 합Manhattan(맨허튼) norm이라고도 한다.L2보다 outlier(이상치)에 robust(덜 민감)하다. 📌 L2 NormNorm 식에서 p가 2인 Norm으로 피타고라스 정리를 활용했다.Euclidean(유클리드) norm이라고도 한다.제곱의 형태이기 때문에 outlier(이상치)에 예민하나 더욱 일반화된 모델을 생성한다. 📌 L1 Norm, L2 Norm 비교L1은 초록색 외의 선들로 여러가지 path를 가지지만L2는 초록색 선으로 unique shortest path를 가진다.  Loss도 Norm과 유사하게 계산된다.📌 L1..

Deep Learning 2024.12.11

Open Set, Open Vocabulary, Open World 차이점

📌 Open Set학습 데이터에 없는 클래스를 'unknown'으로 처리하는 것이 목표학습한 클래스 외의 입력에 대해서는 reject하거나 학습된 데이터가 아니다 라고 판단하는 것이 특징  📌 Open Vocabulary학습 데이터에 없는 단어 혹은 개념을 처리할 수 있도록 설계하는 것이 목표(낯선 단어를 보고 유추해서 사용하는 사람)Zero-shot learning, 이미지 캡셔닝을 예시로 들 수 있다.예를 들어 '고양이'와 '개'를 학습한 모델이 '여우'와 같은 새로운 개념도 유사성을 통해 처리할 수 있다.  📌 Open World학습 데이터에 없는 클래스가 존재할 가능성을 염두에 두고 이를 처리하거나 적응할 수 있는 환경(낯선 단어를 듣고 일단 기록해두는 사람)데이터셋에 없는 새로운 클래스의 ..

Computer Vision 2024.12.10

[논문 리뷰] PDF: A Probability-Driven Framework for Open World 3D Point Cloud Semantic Segmentation

PDF: A Probability-Driven Framework for Open World 3D Point Cloud Semantic Segmentation https://arxiv.org/pdf/2404.00979 0. Abstract존재하는 point cloud semantic segmentation network는 real world에 대한 closed-set과 정적인 관점으로 인해 unknown class를 구분하지 못하고, knowledge를 update하지 못한다. 이는 intelligent agent가 잘못된 결정을 내리게 한다. 이를 해결하기 위해  open-world semantic segmentation인 Probability-Driven Framework(PDF)를 제안한다. 이는 다..

논문리뷰 2024.12.05

[논문 리뷰] Entropic Open-set Active Learning

Entropic Open-set Active Learning https://arxiv.org/pdf/2312.14126 0. AbstractActive learnin(AL)은 unlabeled data에서 가장 informative sample을 선택하여 annotation함으로써 deep model의 수행을 향상시키는 목적을 가진다. closed set에서 인상깊은 수행을 보이지만, 대부분의 AL은 unknown category가 포함된 unlabel데이터인 real-world에서 성능이 떨어진다. 저자들은 AL동안 informative sample을 효과적으로 선택하기 위해 known과 unknown 분포를 사용하는 Entropic Open-set AL(EOAL)을 제시한다. 1. Introducti..

논문리뷰 2024.12.04