1. 생성 모델 (Generative Models)
2012년: Deep Learning 혁명 (AlexNet)
- 설명: 2012년에 발표된 AlexNet은 딥러닝의 혁명적인 변화를 이끌어낸 모델로, 이미지 분류에서 획기적인 성능을 보였습니다. AlexNet은 깊은 신경망 구조와 ReLU 활성화 함수, 드롭아웃 기법을 사용하여 ImageNet 대회에서 우승을 차지했습니다.
- 의의: 딥러닝이 실질적인 문제 해결에 적용될 수 있음을 증명했습니다.
2016년: AlphaGo
- 설명: AlphaGo는 구글 딥마인드가 개발한 바둑 인공지능으로, 신경망을 이용한 강화학습을 통해 인간 챔피언을 이겼습니다. 정책 네트워크와 가치 네트워크를 결합한 형태의 모델을 사용했습니다.
- 의의: 강화학습과 딥러닝의 결합으로 복잡한 전략 게임에서도 인간 수준 이상의 성과를 낼 수 있음을 보여주었습니다.
2022년: Stable Diffusion 기반 이미지 생성
- 설명: Stable Diffusion은 딥러닝을 사용하여 고해상도 이미지를 생성하는 모델입니다. 이미지의 변형과 세부 조정이 가능하며, 텍스트를 기반으로 이미지를 생성할 수 있습니다.
- 의의: 생성 모델의 응용 가능성을 넓히고, 다양한 이미지 생성 작업에서 활용할 수 있게 되었습니다.
2023년: Transformer 기반의 대규모 언어 모델 (LLM)
- 설명: 트랜스포머는 자연어 처리에서 널리 사용되는 모델 구조로, 특히 대규모 언어 모델(LLM)은 방대한 양의 텍스트 데이터를 학습하여 문장 생성, 번역, 질문 응답 등의 작업에서 뛰어난 성능을 보입니다.
- 의의: 자연어 처리의 패러다임을 변화시키고, 인간 언어 이해와 생성의 새로운 가능성을 열었습니다.
2. 설명 가능한 인공지능 (eXplainable AI)
- 설명: AI 모델의 예측 및 결정을 사람이 이해할 수 있도록 만드는 방법론입니다. 모델의 복잡성을 줄이거나, 결과에 대한 해석 가능한 설명을 추가하여 사용자와 개발자가 AI 시스템을 더 신뢰할 수 있도록 합니다.
- 의의: AI 시스템의 투명성과 신뢰성을 높여, 다양한 산업에서 AI의 적용을 확산시키는 데 기여합니다.
3. 반지도 학습 (Semi-Supervised Learning)
- 설명: 레이블이 있는 데이터와 없는 데이터를 함께 사용하는 학습 방식입니다. 일부 레이블된 데이터를 기반으로 모델을 학습시키고, 나머지 레이블되지 않은 데이터를 활용하여 성능을 향상시킵니다.
- 의의: 데이터 레이블링 비용을 줄이면서도 높은 성능을 유지할 수 있습니다. 특히 레이블이 부족한 상황에서 유용합니다.
4. 자가 지도 학습 (Self-Supervised Learning)
- 설명: 레이블이 없는 데이터를 사용하여 모델을 사전 학습(pretraining)하고, 이를 다양한 다운스트림 작업에 활용하는 방식입니다. 데이터의 구조적 특성을 이용하여 자체적으로 학습 목표를 생성합니다.
- 의의: 레이블이 부족한 상황에서도 효과적으로 모델을 학습시킬 수 있으며, 다양한 작업에 적용할 수 있는 범용적인 특성을 학습할 수 있습니다.
5. 멀티모달리티 (Multimodality)
- 설명: 이미지, 텍스트, 표, 오디오, 센서 등의 다양한 형태의 데이터를 통합하여 학습하는 방법입니다. 여러 모달리티의 데이터를 결합하여 더 풍부한 표현과 인식을 가능하게 합니다.
- 의의: 복합적인 데이터 환경에서의 문제 해결을 가능하게 하며, 예를 들어 자율주행 자동차, 의료 영상 분석 등 다양한 분야에서 활용됩니다.
6. 도메인 적응 (Domain Adaptation)
- 설명: 학습된 모델이 다른 도메인의 데이터에도 잘 작동하도록 하는 방법입니다. 도메인 간의 차이를 극복하여 모델의 일반화 성능을 향상시킵니다.
- 의의: 실제 응용에서 데이터의 분포가 변화하더라도 모델의 성능을 유지할 수 있게 합니다.
7. 모델 경량화
지식 증류 (Knowledge Distillation)
- 설명: 큰 모델의 지식을 작은 모델로 전달하여 경량화된 모델을 만드는 방법입니다. 큰 모델이 생성한 출력을 작은 모델이 학습함으로써 성능을 유지하면서 모델의 크기와 복잡성을 줄입니다.
- 의의: 리소스가 제한된 환경에서 효율적인 모델을 구현할 수 있습니다.
8. 대조 학습 (Contrastive Learning)
- 설명: 입력 데이터 사이의 유사도를 학습하여 양성 샘플과 음성 샘플을 구분합니다. 예를 들어, 시암 네트워크(Siamese Networks)를 사용하여 비슷한 데이터와 다른 데이터를 비교합니다.
- 의의: 데이터의 내부 구조와 유사성을 잘 반영한 표현을 학습할 수 있어, 다양한 표현 학습 작업에 유용합니다.
9. 그래프 합성곱 신경망 (Graph Convolutional Neural Networks, GCN)
- 설명: 데이터들 사이의 관계를 학습하는 모델입니다. 그래프 구조를 가진 데이터에서 인접 행렬(Adjacency matrix)을 사용하여 노드와 엣지 간의 관계를 모델링합니다.
- 의의: 소셜 네트워크, 화학 분자 구조, 추천 시스템 등 그래프 데이터를 다루는 다양한 응용 분야에서 강력한 성능을 발휘합니다.
딥러닝의 실용적인 방법론
1. 세 단계 프로세스
요구사항 식별 (Identify Needs)
- 설명: 문제를 정의하고, 해결하고자 하는 목표와 필요를 명확히 합니다. 데이터의 특성과 문제의 본질을 이해하는 단계입니다.
메트릭 선택 (Choose Metrics)
- 설명: 모델의 성능을 평가하기 위한 적절한 지표를 선택합니다. 정확도, 정밀도, 재현율, F1 점수 등 다양한 메트릭 중에서 문제에 맞는 것을 선택합니다.
엔드 투 엔드 시스템 구축 (End-to-End System)
- 설명: 데이터 수집부터 모델 학습, 평가, 배포까지의 전체 과정을 설계하고 구현합니다. 통합된 시스템을 통해 효율적인 모델 개발과 운영을 가능하게 합니다.
2. 딥러닝을 사용할지 여부 결정 (Deep or Not?)
- 설명: 문제에 맞는 최적의 방법론을 선택하는 단계입니다. 딥러닝이 항상 최선의 선택이 아닐 수 있으며, 문제의 특성과 데이터의 양에 따라 다른 방법론이 더 적합할 수 있습니다.
3. 기본 모델 설정
완전 연결된 네트워크 (Fully Connected Baseline)
- 설명: 간단한 다층 퍼셉트론(MLP) 구조를 사용하여 기본 성능을 확인합니다.
CNN 기본 설정 (CNN Baseline)
- 설명: 이미지 데이터에 적합한 합성곱 신경망(CNN) 구조를 사용하여 기본 성능을 확인합니다.
RNN 기본 설정 (RNN Baseline)
- 설명: 순차 데이터에 적합한 순환 신경망(RNN) 구조를 사용하여 기본 성능을 확인합니다.
4. 높은 학습 오류와 높은 테스트 오류 해결
- 설명: 모델의 학습 오류와 테스트 오류를 해결하기 위한 다양한 접근 방법을 논의합니다. 학습 데이터의 품질 향상, 모델 구조의 변경, 과적합 방지 기법 적용 등이 포함됩니다.
'Deep Learning' 카테고리의 다른 글
RNN과 Attention의 차이 (0) | 2024.10.12 |
---|---|
Deep learning_Summary (0) | 2024.06.08 |
Autoencoders (0) | 2024.05.25 |
2-1. Generative Models (1) | 2024.05.02 |
"7wk_Convolutional Neural Networks(구조 파악) (0) | 2024.04.21 |