746 0

Implementation of Pavlov associative memory with adjustable learning rate using magnetic tunnel junction

Title
Implementation of Pavlov associative memory with adjustable learning rate using magnetic tunnel junction
Other Titles
자기터널접합을 이용한 학습률 조절 가능 파블로프 연산 기억의 구현
Author
황예찬
Alternative Author(s)
황예찬
Advisor(s)
박완준
Issue Date
2020-08
Publisher
한양대학교
Degree
Master
Abstract
인간의 두뇌는 수십 와트 수준의 저전력으로 다방면의 분야에서 고차원적인 인지, 기억, 학습, 그리고 추론을 한다. 뉴로모픽 연구는 두뇌의 생물학적 인공신경망 구조와 학습방식을 모방하여, 현재 컴퓨터의 기반이 되는 폰 노이만 구조를 뛰어넘을 새로운 패러다임을 제시하고자 한다. 전자공학 분야에서는, 집적회로 상에서 인공 뉴런과 인공 시냅스를 설계하고 이들을 연결하는 하드웨어 인공신경망을 구축하려는 시도가 이어지고 있다. 파블로프가 발견한 연상기억은 반응을 일으키지 못하는 중성자극이 고전적 조건형성에 의해 독립적으로 반응을 일으키는 조건자극으로 학습되는 기본적인 뇌의 기능이다. 이를 인공신경망으로 구현함으로써 칩상에서의 학습(On-chip learning)을 보이려는 연구가 이어지고 있다. 그러나 현재까지 진행된 연구들은 파블로프 연상기억의 피상적인 기능인 학습과 망각을 보이는 데에 초점을 두고, 학습규칙(learning rule)의 근본적 요소인 학습률(learning rate)의 개념을 배제하였다. 학습률 조절은 생물학적 관찰에 기반한 학습이론 뿐만 아니라, 기계학습을 포함하여 수학적으로 발명된 학습이론에서도 공통적으로 도입되었다는 점에서 지능 연구에서는 필히 고려되어야 한다. 본 연구는 차세대 메모리 중 MRAM(Magnetic random-access-memory, MRAM)의 저장소자인 자기터널접합(Magnetic tunnel junction, MTJ)을 이용하여 인공 뉴런과 시냅스를 설계하고, 이를 기반으로 스파이크신경망(Spiking neural network, SNN)을 구성하여, 학습률 조절이 가능한 파블로프 연상기억 체계를 구현하였다. 자기터널접합의 telegraphic 스위칭 특성을 이용하여, 인가 전류와 자기장에 따라 출력 스파이크의 주파수가 결정되는 rate coding을 수행하는 인공 뉴런이 구성되었다. 그리고, 자기터널접합의 절연층에 의한 맴리스터 특성을 이용하여 생물학적 시냅스의 스파이크 비율 의존 시냅스 가소성(Spike-rate-dependent-plasticity)와 유사하게 동작하는 인공 시냅스이 설계되었다. 세 개의 인공 뉴런과 두 개의 시냅스를 조합하여 스파이크신경망을 조직하였고, 확률론적 과정(Stochastic process)을 통해 회로 전체에 가해지는 자기장으로 학습률 조절이 가능하다. 제안된 스파이크신경망은 그 자체로 파블로프 연상 기억을 학습이론에 의거하여 학습률 조절 기능과 함께 구현했다는 의의가 있다. 추가적으로, 입력 뉴런의 추가와 다층신경망으로의 적층이 용이하다는 점에서 확장가능한 형태를 가지고 있기 때문에, 현재 뉴로모픽의 주요 목표인 복잡한 신경망 구조를 통한 실용적인 인식 및 추론으로의 활용이 가능할 것이다.; Human brain performs high-level cognition, memorization, learning, and inference in general fields with low power of several tens of watts. Neuromorphic research attempts to suggest a new paradigm that goes beyond Von Neumann structure, the basis of conventional computers, by imitating biological neural network structure and learning rule of the brain. In the field of electronics, attempts have been made to design artificial neurons and artificial synapses on integrated circuits and to build hardware artificial neural networks by combining them. The associative memory discovered by Pavlov is a basic brain function in which neutral stimulation, which does not cause a reaction, is learned as a conditioned stimulus that independently draws out the reaction by classical conditioning. Many researchers have tried to implement Pavlov associative memory as an artificial neural network to show on-chip learning. However, these studies focused on showing learning and forgetting, which are just superficial functions of Pavlov associative memory, and excluded the concept of learning rate, which is a fundamental element of learning rule. The learning rate adjustment must be considered in intelligent research in that it has been commonly introduced not only in learning theories based on biological observation, but also in learning theories mathematically invented, including machine learning. In this thesis, artificial neuron and synapse were designed using magnetic tunnel junction (MTJ), which is a storage device of magnetic random-access-memory (MRAM) among emerging memories. Based on this, a spiking neural network (SNN) was constructed to implement Pavlov associative memory system capable of adjusting the learning rate. Specifically, using the telegraphic switching characteristics of the magnetic tunnel junction, an artificial neuron was constructed that performs rate coding in which the frequency of the output spikes is determined according to the applied current and the magnetic field. In addition, an artificial synapse that operates similar to spike-rate-dependent-plasticity of a biological synapse was designed by the memristive characteristic based on an insulating layer of a magnetic tunnel junction. The spiking neural network was organized by combining three artificial neurons and two synapses, and the learning rate can be controlled by universal magnetic field applied to the entire circuit through a stochastic process. The proposed spiking neural network itself has significance in that Pavlov associative memory was implemented with learning rate control function based on learning theory. In addition, since this neural network architecture has an expandable flexibility in that it is easy to add pre-neurons and cascade a layer of the network to form multi-layer neural network, it will be possible to utilize the result of this thesis to practical recognition and inference through a complex neural network structure, which are the main goal of the neuromorphic engineering.
URI
https://repository.hanyang.ac.kr/handle/20.500.11754/152713http://hanyang.dcollection.net/common/orgView/200000438168
Appears in Collections:
GRADUATE SCHOOL[S](대학원) > ELECTRONICS AND COMPUTER ENGINEERING(전자컴퓨터통신공학과) > Theses (Master)
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE