레스넷 (잔차 네트워크) 는 에서 도입한 일종의 심층 컨벌루션 신경망 (CNN) 아키텍처입니다. 카이밍 헤 그리고 2015년 마이크로소프트 리서치에서 근무한 그의 팀.ResNet은 다음과 같은 문제를 해결하도록 설계되었습니다. 사라지는 그라디언트 매우 깊은 신경망에서, 성능 저하 없이 훨씬 더 깊은 네트워크를 구축할 수 있습니다.
레스넷의 주요 특징
- 잔여 학습:
- 레스넷 소개 잔여 블록, 여기서 각 블록은 원하는 출력값을 직접 학습하지 않고 잔차 함수 (입력과 출력의 차이) 를 학습합니다.따라서 모델이 ID 매핑을 더 쉽게 학습하고 학습을 개선할 수 있습니다.
- 연결 건너뛰기:
- ResNet의 주요 혁신은 연결 건너뛰기 또는 단축키 연결.이러한 연결은 하나 이상의 계층을 건너뛰고 이전 계층의 출력을 이후 계층에 직접 추가합니다.이를 통해 심층 네트워크에서 기울기가 사라지는 문제를 완화하고 더 효율적으로 훈련할 수 있습니다.
- 딥 아키텍처:
- ResNet은 고성능을 유지하면서 매우 깊을 수 있습니다 (예: 34개 레이어, 50개 레이어 또는 152개 레이어).스킵 연결은 계층 수가 증가해도 네트워크가 정확도 저하 없이 학습할 수 있도록 도와줍니다.
- 병목 현상 아키텍처:
- 매우 깊은 네트워크의 경우 ResNet은 a를 사용합니다. 병목 설계 특정 레이어에서는 매개변수 수가 줄어들어 성능 저하 없이 모델의 효율성이 향상됩니다.
- 배치 정규화 및 ReLU:
- 레스넷은 활용합니다 배치 정규화 교육 과정을 안정시키고 ReLU 비선형성을 도입하는 활성화 함수.
레스넷이 작동하는 이유
- 심층 네트워크: 기존 CNN은 레이어를 더 추가하면 그래디언트가 사라지거나 과적합으로 인해 성능이 저하될 수 있다는 문제에 직면해 있습니다.ResNet은 성능 저하 없이 네트워크를 훨씬 더 심층적으로 구성할 수 있는 스킵 연결을 사용하여 이 문제를 해결합니다.
- 더 쉬워진 교육: 잔여 연결을 사용하면 역전파 중에 기울기가 네트워크 전체에 더 쉽게 흐르고 기울기가 사라지는 것을 방지할 수 있으므로 네트워크가 더 쉽게 학습할 수 있습니다.
레스넷 배리언트
- 레스넷-34, 레스넷-50, 레스넷-101, 레스넷-152:
- 이 숫자는 네트워크의 계층 수를 나타냅니다.예를 들어, ResNet-50은 50개의 계층으로 구성되며, 각 계층은 컨벌루션 연산을 나타냅니다.
- 레스넷-110:
- 110개 레이어로 구성된 ResNet의 변형으로, 일반적으로 소규모 이미지 인식 작업 실험에 사용됩니다.
- 병목 현상이 있는 리스넷:
- 매우 심층적인 네트워크 (예: 레스넷-101 또는 레스넷-152) 의 경우 ResNet은 다음을 사용합니다. 병목 블록 파라미터 수를 줄이고 네트워크의 계산 효율성을 높이기 위해서입니다.
레스넷의 애플리케이션
- 이미지 분류:
- ResNet은 이미지 인식 작업에 널리 사용되어 다음과 같은 벤치마크에서 최첨단 성능을 달성했습니다. 이미지넷.
- 물체 감지:
- ResNet 아키텍처는 다음과 같은 물체 감지 모델에서 백본 네트워크로 자주 사용됩니다. 더 빠른 R-CNN.
- 시맨틱 세그멘테이션:
- ResNet은 다음과 같은 모델에서와 같이 이미지의 각 픽셀을 분류하는 것이 목표인 시맨틱 분할 작업에 사용됩니다. 딥랩.
- 얼굴 인식:
- ResNet은 딥 레이어가 세부 특징을 캡처하는 데 도움이 되기 때문에 안면 인식 시스템에 적용되었습니다.
- 의료 영상:
- 의료 분야에서 ResNet은 종양 식별, 의료 스캔을 통한 질병 진단, 의료 데이터 분석과 같은 작업에 사용됩니다.
레스넷의 장점
- 딥 네트웍스: ResNet을 사용하면 매우 심층적인 네트워크가 가능하므로 기울기가 사라지지 않고 모델 정확도가 크게 향상됩니다.
- 교육 용이성: 스킵 연결은 훈련 속도를 높이고 모델의 수렴을 개선하는 데 도움이 됩니다.
- 최첨단 퍼포먼스: ResNet은 이미지 분류 작업에서 놀라운 성과를 거두었으며 많은 시각 관련 작업에서 기본 아키텍처가 되었습니다.
레스넷의 당면 과제
- 계산 복잡성: 딥 ResNet 모델 (예: ResNet-152) 은 계산 비용이 많이 들기 때문에 상당한 메모리와 처리 능력이 필요할 수 있습니다.
- 오버핏: 심층 아키텍처의 장점에도 불구하고 매우 심층적인 네트워크는 제대로 정규화되지 않았거나 데이터셋이 너무 작은 경우 여전히 데이터에 과적합될 수 있습니다.