이 아키텍처의 주요 특징은 네트워크 내부의 컴퓨팅 리소스의 활용도가 향상되었다는 점임.
→ 정교한 설계 덕에 네트워크의 depth & width를 늘려도 연산량이 증가하지 않고 유지됨.
Goggle 팀에서는 성능을 최적화하기 위해 Hebbian principle과 multi-scale processing을 적용함
→ 이 구조를 GoogLeNet 이라고 부름
→ GoogLeNet은 22개의 layer를 가지며, Inception 이라는 코드네임을 가짐.
함께 활성화되는 뉴런은 함께 연결된다.
→ 신경과학적 관점에서 Hebbian Principle은 뉴런 간 시냅스 연결의 강도 조절과 연관이 있음. 만약 2개의 뉴런이 동시에 활성화되면 그들 간의 시냅스 연결이 강화되고, 동시성이 없거나 차이가 있으면 연결 강도가 약화됨.
학습과 기억 메커니즘을 설명하는 데에 사용됨.
→ 어떤 경험이나 학습 상황에서 동시에 활성화되는 뉴런들은 그 경험을 나타내는 패턴으로 연결이 강화되어 미래에 비슷한 패턴이 나타날 때 해당 뉴런들이 함께 활성화되기 쉽게됨.
뉴런 간 연결 강도를 조절하여 인공신경망에서 학습 알고리즘을 개발하는 데에도 사용됨.