자기조직화지도 예제

네트워크는 매핑 중에 예상되는 벡터 종류를 가능한 한 가깝게 나타내는 많은 수의 예제 벡터를 공급해야 합니다. 예제는 일반적으로 반복으로 여러 번 관리됩니다. 대부분의 인공 신경망과 마찬가지로 SOM은 교육 및 매핑의 두 가지 모드로 작동합니다. „교육“은 입력 예제(벡터 양자화라고도 하는 경쟁 프로세스)를 사용하여 맵을 빌드하고 „매핑“은 새 입력 벡터를 자동으로 분류합니다. 자체 구성 맵은 기능 검색에 사용되는 자율 학습 신경망의 클래스입니다. 그들은 훈련 샘플의 낮은 차원 공간을 생산하는 데 사용됩니다. 따라서 치수 감소에 사용됩니다. 자체 조직화 맵(SOM)은 지도라고 불리는 훈련 샘플의 입력 공간의 저차원(전형적으로 2차원)을 생성하기 위해 자율 학습을 사용하여 훈련되는 인공 신경망(ANN)의 일종으로, 따라서 치수 감소를 수행하는 방법이다. 자체 구성 맵은 오류 수정 학습(예: 그라데이션 하강을 통한 역전도)과 는 반대로 경쟁적인 학습을 적용하기 때문에 다른 인공 신경망과 다르며, 주변 기능을 사용하여 입력 공간의 토폴로지 특성입니다. 이 게시물의 2 부 (목요일에 예정)에서 몇 가지 구체적인 예제를 논의하고 자체 조직지도의 파이썬 구현을 통해 걸을 것이기 때문에 흥미로운 소리가 나기를 바랍니다. 데이터 집합에 대한 학습 결과를 비교합니다[주 1] 학습된 각 입력 집합에 대해 알고리즘에 원하는 대답을 알려주기 때문에 감독되는 기계 학습 문제이므로 오류가 발생하는지 알 수 있습니다. 자세한 내용은 참조 정보 1. 톰 게르마노 2에 의해 자기 조직지도.

코호넨의 자기 조직 기능지도 3. SOM에 대한 자세한 내용은 아래 를 참조하십시오. : 1. 투보 코호넨 – SOM의 발명가. 2. WEBSOM – 코넨의 실험실에 의해 새로운 SOM 아키텍처. 3. 코혼넨, T., 자기 조직과 연관 기억, 뉴욕 : 스프링어-베를라그, 1988. 4. 코혼넨, T., 자기 조직지도, 뉴 이록 : 스프링어 – 베를라그, 제 3 차 확장 에드.

2001. 간단히 말해서, SOM은 그리드의 뉴런으로 구성되며, 이는 데이터의 본질적인 모양에 점차적으로 적응합니다. 최종 결과를 통해 데이터 포인트를 시각화하고 더 낮은 차원에서 클러스터를 식별할 수 있습니다. 그림 6. 뉴런 간의 유사성 및 유사성을 나타내는 U-매트릭스. 클러스터를 식별하는 데 유용합니다. 최적 일치 단위는 모든 가중치 벡터를 통해 실행하여 각 가중치에서 샘플 벡터까지의 거리를 계산하는 기술입니다. 가장 짧은 거리의 무게가 승자입니다. 거리를 결정하는 방법은 여러 가지가 있지만 가장 일반적으로 사용되는 방법은 유클리드 거리이며, 다음 구현에서 사용되는 것입니다. 그림 3.

SOM 그리드가 데이터의 모양을 취하기 위해 어떻게 진화하는지 보여주는 애니메이션 GIF입니다. 시각화는 데이터의 하향식 보기이며 뉴런은 실제로 3차원으로 이동하고 있으며 아래 그림은 자체 구성 맵을 학습하는 방법을 보여 줍니다. 보라색 Blob은 학습 데이터의 분포입니다. 작은 흰색 디스크는 해당 분포에서 가져온 현재 학습 데이텀입니다. 처음에는 SOM 노드가 데이터 공간에 임의로 배치됩니다. 학습 데이텀에 가장 가까운 노드(노란색으로 강조 표시됨)가 선택됩니다. 그리드의 이웃과 마찬가지로 트레이닝 데이텀쪽으로 이동합니다. 여러 번 반복한 후 그리드는 데이터 분포(오른쪽)를 근사화하는 경향이 있습니다.

. 뉴런 클러스터의 크기를 비교하면 왼쪽 상단에 있는 더 큰 클러스터가 더 큰 노란색 데이터 소수 점 그룹에 해당하므로 오른쪽 하단의 작은 클러스터가 녹색 데이터 포인트에 해당하도록 됩니다. 범주형 변수를 잘 처리하지 않습니다.

Dieser Eintrag wurde veröffentlicht in Allgemein. Lesezeichen auf den Permanentlink.