본문 바로가기

AI 인공지능/AI Vision12

deep-text-recognition-benchmark 학습 환경설정 1. Conda 환경 생성 [root@server ~]$ conda create -n deep_text_recognition python=3.7 [root@server ~]$ conda activate deep_text_recognition (deep_text_recognition) [root@server ~]$ conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=10.2 -c pytorch 2. CRAFT-pytorch 소스 다운로드 (deep_text_recognition) [root@server ~]$ https://github.com/clovaai/deep-text-recognition-bench.. 2022. 12. 1.
Craft Model 사용법 환경설정 1. Conda 환경 생성 [root@server ~]$ conda create -n craft_model python=3.7 [root@server ~]$ conda activate craft_model (craft_model) [root@server ~]$ conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=10.2 -c pytorch 2. CRAFT-pytorch 소스 다운로드 (craft_model) [root@server ~]$ git clone https://github.com/clovaai/CRAFT-pytorch.git (craft_model) [root@server ~]$ cd CRAFT.. 2022. 12. 1.
YOLOv7에 대해 알아보자 YOLO란? YOLO는 You Only Look Once의 약자로 Object detection 분야에서 널리 알려진 모델이다. 처음으로 One-Stage-Detection (분류와 추론을 동시에 함)방법을 고안해 실시간으로 Object Detection이 가능하게 만들었다. YOLO 특징 이미지를 분할하지 않고 이미지 한 장에서 분석이 가능합니다. (R-CNN과 같은 경우는 이미지 분할하여 CNN으로 추론) 다양한 전처리 모델과 인공 신경망을 결합해서 사용하는 이전 방식이 아닌 통합된 모델을 사용합니다. 실시간으로 객체를 탐지 할 수 있는 것이다. 기존의 Faster R-CNN보다 6배 빠른 성능을 보여줍니다. YOLOv7 모델 YOLO(You Only Look Once) v7 모델은 YOLO 모델 제.. 2022. 11. 22.
YOLOv7를 활용한 Object Detection 환경구성 1. conda 환경 생성 [root@ai-server ~] conda create -n yolov7 python=3.7 [root@ai-server ~] conda activate yolov7 (yolov7) [root@ai-server ~] conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=11.0 -c pytorch 2. yolov7 프로젝트 clone (yolov7) [root@ai-server ~] git clone https://github.com/WongKinYiu/yolov7.git (yolov7) [root@ai-server yolov7] cd yolov7 (yolov7) [root@ai-s.. 2022. 11. 21.
이미지 유사도 embedding 검증 목표resnet50 모델을 사용하여 이미지 전체 데이터에 관해서 임베딩을 하여 유사한 거리에 있는 이미지를 추천한다.사전준비이미지 분류가 되어있는 폴더 안에 이미지가 N장 준비되어 있다. 이 파일들을 가지고 데이터셋을 생성하고 유사도를 검증해 볼 생각이다.데이터셋 준비from mpl_toolkits.mplot3d import Axes3D from sklearn.preprocessing import StandardScaler import matplotlib.pyplot as plt import matplotlib.image as mpimg import numpy as np import pandas as pd import os import sklearn# 데이터가 많으므로 테스트에서는 1000건만 처리.. 2021. 12. 29.
패션 의류 분류 (Fashion Classification) 목적 패션 데이터셋을 활용하여 가방, 셔츠, 스커트 등을 분류합니다. 환경설정 데이터 파이프 라인 : 데이터 로드시 과부하를 완화하기 위하여 데이터 파이프라인을 구축합니다. 조기종료 설정 : 학습이 개선되지 않으면 조기종료 콜백을 설정하여 중지합니다. TensorBoard 모니터링 : TensorBoard와 연결하여 학습 진행 상태를 모니터링 할 수 있도록 합니다. 데이터셋 아래와 같이 dataset 디렉토리 안에 가방, 셔츠, 스커트의 폴더별로 나누어져있으며 이미지 파일이 있습니다. ├─dataset │ ├─bag │ ├─shirt │ └─skirt └─runs └─fashion_classification 데이터 로드 import os import time from PIL import Image imp.. 2021. 9. 15.
Fashion MNIST 데이터 로드 import torch import torch.nn as nn import torchvision.datasets as datasets import torchvision.transforms as transforms import matplotlib.pyplot as plt from torchvision.utils import make_grid import numpy as np from torch.utils.data import DataLoader import os import time batch_size = 100 num_epochs = 50 learning_rate = 0.0001 device = torch.device('cuda') if torch.cuda.is_available() else.. 2021. 9. 12.
Object Detection 개념 Object Detection 이란? 객체 탐지(Object Detection)는 컴퓨터 비전 기술의 세부 분야중 하나로써 주어진 이미지내 사용자가 관심 있는 객체를 탐지하는 기술이다. 활용분야 자율 주행 자동차 CCTV 녹화 마스크 얼굴 인식 패션 분야에서 상의, 바지, 원피스등 해당 객체 인식 모델 형태 One-Stage Detector vs Two-Stage Detector 간단히 말해서 Classification (분류), Regional Proposal (영역제안)을 동시에 실행을 하는가 아니면 순차적으로 실행을 하는가에 대한 방법의 차이이다. One-Stage Detector Two-Stage Detector 모델 형태 정확도 속도 One-Stage Detector 정확도 ↓ 속도 ↑ Two-.. 2021. 9. 12.
Faster-RCNN 목적 패션 데이터셋을 활용하여 모자, 상의, 하의 등의 객체를 탐지하는 코드를 실행합니다. 데이터 로드 로드하려는 csv 파일 안에 패션에 대한 이미지 URL, 종류, 영역 좌표의 정보가 포함되어 있습니다. 이 정보를 로드하여 시각화하고 확인해봅니다. import os import json import pandas as pd import numpy as np from urllib.parse import * from requests.utils import requote_uri import requests from tqdm.notebook import tqdm BASE_DIR = os.getcwd() annotations_path = os.path.join(BASE_DIR, 'annotations') ima.. 2021. 9. 9.
CNN (합성 신경망) 모델 CNN 모델에 대해서는 블로그와 블로그2 를 참조하였음을 명시한다. LeNet 20여년 전에 제안된 첫 CNN LeNet은 손글씨 숫자를 인식하는 네트워크로 1998년에 제안 현재 CNN 모델과 달리 활성화 함수로 시그모이드를 사용하고 서브 샘플링을 하여 중간 크기가 작아짐 AlexNet 2012년에 발표되어 딥러닝 선도적인 역할을 함 활성화 함수로 ReLU를 사용 LRN이라는 국소적 정규화를 실시하는 계층을 이용함 드롭아웃을 사용 VGGNet 구성이 간단하고 합성곱 계층과 풀링 계층으로 구성되는 가장 기본적인 CNN 다만 비중있는 층(합성곱 계층, 안전 연결 계층) 을 모두 16개(혹은 19개로) 심화한게 특징 층의 깊이에 따라서 VGG16, VGG19로 구분 3 x 3 작은 필터를 사용한 합성곱 계층.. 2021. 1. 24.
CNN (합성 신경망) CNN 정의 Convolution Neural Network (합성신경망)으로 이미지를 입력받아 분류 결과를 출력한다. CNN 특징 이미지 입출력 데이터 형상 유지 이미지 공간을 유지하면서 인접 이미지와의 특징을 효과적으로 인식 복수의 필터로 이미지 특징 추출 및 학습 추출한 이미지의 특징을 모으고 강화하는 Pooling 레이어 필터를 공유 파라미터로 사용하기 때문에, 일반 신경망과 비교하여 학습 파라미터가 매우 적음 CNN 레이어 1. 컨볼루션 Convolution 입력 데이터로부터 필터로 합성곱 연산을 수행하여 Feature Map을 생성한다. 2. 채널 Channel 이미지 픽셀은 실수로 되어 있으며 RGB 3개의 실수로 표현한 3차원 데이터이다. 3. 필터 Filter == Kernal 필터는 이.. 2020. 12. 22.
CNN (Convolutional neural network) CNN 을 왜 사용하는가? stationarity : stationarity는 주로 통계의 시계열 분석에서 사용되는 용어로 시간에 관계없이 데이터의 확률 분포는 일정하다는 가정이다. 쉽게 말해 시간이 이동되어도 동일한 패턴이 반복된다는 뜻이다. 더 정확하게 시간이 지나도 데이터 분포의 파라미터인 평균, 분산등이 변하지 않는다는 가정을 베이스로 예측을 한다. locality : locality of pixel dependencies는 쉽게 이미지는 작은 특징들로 구성되어 있기 때문에 픽셀의 종속성은 특징이 있는 작은 지역으로 한정된다는 의미이다. 즉 이미지를 구성하는 특징들은 이미지 전체가 아닌 일부 지역에 근접한 픽셀들로만 구성되고 근접한 픽셀들끼리만 종속성을 가진다는 가정이다. CNN 데이터 셋 만들기.. 2018. 12. 31.
728x90
반응형