목록

Home

책표지

인간의 신경구조로 발전하는 인공지능의 미래

인간의 두뇌에 비하면 현대의 컴퓨터는 조악한 장난감에 불과하다. 하지만 최근 인간의 두뇌를 기반으로 새로운 컴퓨터들이 제작되고 있다. 오늘날 슈퍼 컴퓨터로 불리는 기계들은 이러한 새..


이전

목록







The Future of AI Is Neuromorphic
 
As astonishing as computers are, they are far inferior to the human brain.  Unlike devices powered by silicon chips, our brains are capable of learning, understanding images, and recognizing speech, all while using very little energy.


But a new approach called neuromorphic computing seeks to leverage the brain’s strengths by using an architecture in which chips act like neurons.  The result will be a quantum leap in performance that will revolutionize countless applications.


Companies such as Intel, IBM, and Qualcomm are now involved in a high-stakes race to develop the first neuromorphic computer.
Thanks to Moore’s Law, formulated by Intel co-founder Gordon Moore in 1965, devices using the standard CMOS architecture have become lighter, faster, cheaper, and more powerful roughly every eighteen to twenty-four months for the past five decades.


Today, silicon chips have shrunk to fourteen nanometers, and by the end of the year Intel is expected to release the first ten-nanometer chip.  The company is already spending $7 billion to revamp one of its factories in Arizona to make seven-nanometer chips.
But there’s a limit to how small silicon chips can go.  According to an article in Wired, the International Technology Roadmap for Semiconductors, which is sponsored by the chip industries in several countries, recently concluded that by 2021 “transistors could get to a point where they could shrink no further.”  While it will still be technically possible to make smaller chips, they will reach “the economic minimum” at which the costs will be too high to justify.1


It’s not just that neuromorphic computing provides a way to keep devices on the same price/ performance trajectory they’ve been on even after Moore’s Law expires.  The new brain-inspired architecture will enable machines to do things that silicon chips can’t.  Traditional chips are good at making precise calculations on any problem that can be expressed in numbers.  A neuromorphic system can identify patterns in visual or auditory data, and adjust its predictions based on what it learns.


A research paper by Intel scientist Charles Augustine predicts that neuromorphic chips will be able to handle artificial intelligence tasks such as cognitive computing, adaptive artificial intelligence, sensing data, and associate memory.  They will also use 15?300 times less energy than the best CMOS chips use.2


That’s significant because today’s AI services, such as Siri and Alexa, depend on cloud-based computing in order to perform such feats as responding to a spoken question or command.  Smartphones run on chips that simply don’t have the computing power to use the algorithms needed for AI, and even if they did they would instantly drain the phone’s battery.


The limits of Moore’s Law threaten to derail efforts to build devices that can instantly recognize images, objects, and sounds and then use that knowledge in such applications as facial recognition, robot navigation, and autonomous vehicles.


IBM’s neuromorphic chip, called TrueNorth, has already proven to be extremely adept at such AI tasks as image recognition and speech perception.  A blog post by IBM Research revealed that TrueNorth classifies images at a rate of 1,200 to 2,600 frames per second, while consuming a mere 25?275 milliwatts of power.3  At an average of 6,000 frames per second per watt, it is far superior to the 160 frames per second per watt achieved by the best graphics processing unit on the market, the Tesla4 by NVIDIA.
 
Neuromorphic chips use less energy and deliver better performance than conventional CPU chips because they are designed differently.  Instead of passing information from one transistor to the next in a line of billions of transistors, neuromorphics typically consist of a million “neurons” that can pass information in any direction to any other neurons via 256 million connections, called “synapses.”


According to a different article in Wired, “Traditional CPUs process instructions based on “clocked time”?information is transmitted at regular intervals, as if managed by a metronome.4  By packing in digital equivalents of neurons, neuromorphics communicate in parallel (and without the rigidity of clocked time) using “spikes”?bursts of electric current that can be sent whenever needed.  Just like our own brains, the chip’s neurons communicate by processing incoming flows of electricity?each neuron able to determine from the incoming spike whether to send current out to the next neuron.”


DARPA and the Department of Energy (DOE) are funding much of the research into neuromorphic computing by pouring hundreds of millions of dollars into companies like IBM, Hewlett Packard, AMD, and Intel.5  Supercomputers will soon evolve from the petascale level, meaning they are measured in petaflops, or quadrillion calculations per second, to the exascale level, in which they will be measured in exaflops, or quintillion calculations per second.


An exascale supercomputer would be equivalent to the human brain, and would be at least fifty times faster than the most powerful supercomputer in the U.S. (Oak Ridge National Laboratory’s Titan).  The DOE has set 2021 as the target date for the first exascale system; it has also mandated that one of the exascale supercomputers it is funding must use a novel architecture, and neuromorphic computing is a strong candidate to provide that new technology.


Based on this analysis, we foresee the following developments:


First, by 2025, neuromorphic chips will be embedded in smart phones.


According to the research firm Research and Markets, the neuromorphic chip business will expand to $1.78 billion by the middle of the decade.6  The chips will bring true AI capabilities to handheld devices, enabling users to get real-time information without needing to access the cloud.  Peter Suma, co-CEO of Applied Brain Research, envisions AI services that are constantly engaged in our lives, unlike Siri, which only responds to commands.  As he explains, “Imagine a Siri that listens and sees all of your conversations and interactions.  You’ll be able to ask it for things like, ‘Who did I have that conversation with about doing the launch for our new product in Tokyo?’ or ‘What was that idea for my wife’s birthday gift that Melissa suggested?’”  Privacy won’t be an issue, because the data will all be stored locally, rather than in the cloud.

Samir Kumar, a business development director at Qualcomm’s research lab, believes neuromorphic chips will enable smartphones to continually monitor what you do and where you go in order to offer help before you even ask for it.  As he explains, “If you and your device can perceive the environment in the same way, your device will be better able to understand your intentions and anticipate your needs.”

Second, neuromorphic processors will also help to drive the growth of the Internet of Things.


As we reported in our September 2015 issue, the IoT will produce an economic impact of up to $11.1 trillion per year by 2025, according to the McKinsey Global Institute.  Neuromorphic chips will allow tens of billions of wearables, sensors, and devices to perform intelligently without an Internet connection.  This will transform our lives in countless ways, including improving healthcare:  As reported in the MIT Technology Review, “Medical sensors and devices could track individuals’ vital signs and respond to treatments over time, learning to adjust dosages or even catch problems early.”7


Third, neuromorphic chips will play an important role in transportation, space exploration, defense, and manufacturing.


They will enable autonomous vehicles to navigate, react, and interact appropriately to objects, other vehicles, signs, and sirens.  They will enable interstellar spacecraft to operate independently and with very low power consumption.  Meanwhile, neuromorphic chips will be deployed in satellites for surveillance.  IBM recently provided the DOE’s Lawrence Livermore National Laboratory with a sixteen-chip TrueNorth array, called NS16e, which will be used for such applications as identifying cars from overhead with video from drones.  According to the IBM Research blog, the laboratory is also studying how to use NS16e “to detect defects in additive manufacturing; and to supervise complex dynamical simulations, like physics problems in industrial design, to avoid failures.”8


Fourth, the advance of neuromorphic technology will allow engineers to design robots and prosthetic limbs that leverage artificial intelligence.


Robots will be able to respond to spoken commands, recognize their surroundings, and navigate independently, all while consuming low amounts of energy.  Meanwhile, according to nextplatform.com, Stanford’s Brains in Silicon lab has developed a neuromorphic device with one million neurons called “Brainstorm.”9 Bioengineering professor Kwabena Boahen predicts that Brainstorm will be used to enhance brain-machine interfaces so that an algorithm will identify neural spikes in a paralyzed person’s brain that indicate a desired behavior, and then it will direct a robotic arm to execute the task.  And IBM researcher Dharmendra Modha believes that neuromorphic chips will be used to create glasses that will help the blind to “see” with the help of sensors that will identify objects and then use spoken words to describe them to the wearer.


References
1. Wired, August 28, 2016, “What Is Moore’s Law? WIRED Explains the Theory that Defined the Tech Industry,” by Lee Bell. ⓒ 2016 Conde Nast.  All rights reserved.

http://www.wired.co.uk/article/wired-explains-moores-law


2. For access to Charles Augustine’s research paper on neuromorphic chips, visit the Cornell University Library website at:

https://arxiv.org/ftp/arxiv/papers/1206/1206.3227.pdf


3. To access IBM’s blog about their TrueNorth neuromorphic chip, visit their website at:

https://www.ibm.com/blogs/research/2016/09/deep-learning-possible-embedded-systems-thanks-truenorth/


4. Wired, March 6, 2017, “The Future of AI Is Neuromorphic. Meet the Scientists Building Digital ‘Brains’ for Your Phone,” by Aaron Frank. ⓒ 2017 Conde Nast.  All rights reserved.

http://www.wired.co.uk/article/ai-neuromorphic-chips-brains


5. BioIT World, June 15, 2017, “Six Companies Get DOE PathForward Grants for Exascale Computing,” by Allison Proffitt. ⓒ 2017 Cambridge HealthTech Institute.  All rights reserved.

http://www.bio-itworld.com/2017/6/15/six-companies-get-doe-pathforward-grants-exascale-computing.aspx


6. PR Newswire, April 10, 2017, “Global Neuromorphic Computing Market 2017?2025: Market to Grow at CAGR of 86.3%, $1.78 Billion Market Opportunities and Recommendations for New Investments?Research and Markets.” ⓒ 2017 PR Newswire Association LLC.  All rights reserved.

http://www.prnewswire.com/news-releases/global-neuromorphic-computing-market-2017-2025-market-to-grow-at-cagr-of-863-178-billion-market-opportunities-and-recommendations-for-new-investments---research-and-markets-300437152.html


7. MIT Technology Review, May/June 2014, “Neuromorphic Chips,” by Robert D. Hoff. ⓒ 2014 MIT Technology Review.  All rights reserved.

https://www.technologyreview.com/s/526506/neuromorphic-chips/


8. To access IBM’s blog about their TrueNorth neuromorphic chip, visit their website at:

https://www.ibm.com/blogs/research/2016/09/deep-learning-possible-embedded-systems-thanks-truenorth/


9. The Next Platform, March 27, 2017, “Stanford Brainstorm Chip to Hints at Neuromorphic Computing Future,” by Nicole Hemsoth. ⓒ 2017 The Next Platform.  All rights reserved.

https://www.nextplatform.com/2017/03/27/stanford-brainstorm-chip-hints-neuromorphic-computing-future/












인간의 두뇌에 비하면 현대의 컴퓨터는 조악한 장난감에 불과하다. 하지만 최근 인간의 두뇌를 기반으로 새로운 컴퓨터들이 제작되고 있다. 오늘날 슈퍼 컴퓨터로 불리는 기계들은 이러한 새로운 컴퓨터에게 자리를 양보해야 할 것이다. 인간의 두뇌를 기반으로 하는 컴퓨터는 무엇이며 현재 기술은 어디까지 발전했을까?


엄밀히 말하자면, 오늘날의 컴퓨터는 인간의 두뇌와 비교할 수 없을 만큼 열등하다. 실리콘 칩으로 구동되는 컴퓨터와 달리 1,000억 개의 신경세포와 1,000조 개의 시냅스로 구성된 인간의 두뇌는 에너지를 거의 사용하지 않으면서 학습하고, 이미지를 이해하고, 음성을 인식할 수 있다.


그렇다면 열등한 컴퓨터는 앞으로도 계속 그럴 것인가? 아마도 새로운 방식이 이러한 격차를 좁히거나 심지어 역전을 시킬 수도 있을 것 같다. 뉴로모픽(neuromorphic, 신경모방) 컴퓨팅으로 불리는 새로운 접근 방식이 인간 두뇌의 강점을 활용하려고 하기 때문이다. 이 칩이 뉴런과 같이 작동하는 아키텍처(architecture, 컴퓨터 시스템의 구성)를 구성하는 것이다. 그 결과, 무수히 많은 애플리케이션에 혁명이 일어날 것이다.


인텔, IBM, 퀄컴과 같은 기업들은 최초의 뉴로모픽(neuromorphic) 컴퓨터를 개발하기 위해 치열한 각축전을 벌이고 있다.

1965년 인텔 공동 설립자 고든 무어(Gordon Moore)에 의해 공식화된 무어의 법칙에 따르면, 표준 CMOS 아키텍처를 사용하는 도구는 지난 50년 동안 대략 18∼24개월마다 더 가볍고, 더 빠르고, 더 저렴하고, 더 강력해졌다.


이러한 실리콘 칩은 오늘날 14나노미터로 조밀해졌고, 인텔은 최초의 10나노미터 칩으로 공정을 전환하려고 계속 시도 중이다. 또한 인텔은 애리조나에 있는 공장 중 하나를 7나노미터 칩으로 개조하기 위해 70억 달러를 투자하고 있다.


그러나 실리콘 칩의 소형화에는 한계가 있다. 「와이어드」지에 따르면, 여러 국가들의 칩 산업계의 지원을 받고 있는 국제반도체기술로드맵(the International Technology Roadmap for Semiconductors)은 ‘2021년까지 트랜지스터가 더 이상 축소될 수 없는 지점에 도달할 수 있다’고 최근 결론지었다. 아직까지는 기술적으로 더 작은 칩을 만들 수 있지만, 비용이 너무 높아 용인될 수 없는 ‘경제적 최저 수준’ 상황에 언젠가 도달할 것이라는 지적이다.


하지만 뉴로모픽 컴퓨팅은 무어의 법칙이 종료된 이후에도 동일한 가격/성능 궤적을 유지할 수 있는 방법이다. 그러나 이게 다가 아니다. 뉴로모픽은 그보다 훨씬 더 큰 의미가 있다. 두뇌를 기반으로 하는 이 새로운 아키텍처는 실리콘 칩으로는 불가능했던 것들을 가능하게 만들어준다. 전통적인 칩이란 숫자로 표현될 수 있다면 어떤 문제든 정확하게 계산해낼 수 있다. 그러나 뉴로모픽 시스템은 시각 혹은 청각 데이터에서 패턴을 식별하고, 거기에서 학습한 것들을 기반으로 예측 조정까지 가능하다.


인텔 과학자 찰스 어거스틴(Charles Augustine)은 그의 연구 보고서에서 뉴로모픽 칩은 인지 컴퓨팅, 적응형 인공지능, 감지 데이터, 연상기억장치(Associate Memory)와 같은 인공지능 작업을 처리할 수 있을 것으로 예측했다. 또한 뉴로모픽 칩은 현재 최고의 CMOS 칩이 사용하는 것보다 15∼300배 적게 에너지를 사용한다.


이러한 저전력 사용은 매우 의미심장한 데, 시리(Siri)와 알렉사(Alexa)와 같은 오늘날의 인공지능 서비스가 음성 질문이나 명령에 응답하는 것과 같은 작업을 수행하기 위해 클라우드 기반 컴퓨팅에 의존하고 있다는 점을 생각해보라. 만약 이러한 기능을 단독으로 갖춘 스마트폰이 출시된다면 그것은 혁명적인 사건이 될 것이다. 그러나 오늘날 스마트폰에 사용되는 칩은 인공 지능에 필요한 알고리즘을 단독으로 사용할 수 있는 컴퓨팅 성능을 갖추고 있지 않다. 만약 현재의 시리와 알렉사 같은 인공지능 기능을 단독으로 갖춘 스마트폰을 실행한다면 현재의 칩은 금방 스마트폰의 배터리를 방전시켜 버릴 것이다.


한편 무어의 법칙의 한계는 이미지, 물체, 소리를 즉각적으로 인식하여 안면 인식, 로봇 내비게이션, 자율 운행 차량과 같은 응용프로그램에 그 지식과 정보를 활용할 수 있는 도구를 창조하려는 노력을 수포로 돌리고 있다.


트루노스(TrueNorth)로 불리는 IBM의 뉴로모픽 칩은 이미지와 음성 인식과 같은 인공지능 작업에 매우 능숙한 것으로 이미 입증되었다. IBM 연구소(IBM Research)가 운용하는 블로그는 트루노스가 단지 25∼275 밀리와트의 전력만으로 1초당 1,200에서 2,600 프레임의 속도로 이미지를 분류하고 있다고 밝혔다. 이것은 1와트 소비전력에 1초당 6,000 프레임의 속도로, 오늘날 시장에 출시된 최고 성능의 그래픽 카드인 엔비디아의 테슬라4(Tesla4)가 기록한 1와트 소비전력에 1초당 160 프레임의 성능과 비교할 수 없을 정도다.


뉴로모픽 칩은 기존 CPU 칩보다 적은 에너지를 사용하고 더 뛰어난 성능을 제공하는데, 설계 자체가 다르기 때문이다. 수십억 개의 트랜지스터 라인에서 어떤 정보가 한 트랜지스터에서 다음 트랜지스터로 전달되는 기존 CPU와 달리, 뉴로모픽은 일반적으로 정보를 한 방향에서 ‘시냅스(synapses)’로 불리는 2억5천6백만 개의 연결을 통해 다른 뉴런으로 이동시킬 수 있는 약 1백만 개의 뉴런으로 구성된다.


「와이어드」지의 또 다른 관련 보도에 따르면, 기존 CPU는 박자가 맞는(clocked) 시간을 기반으로 명령을 처리한다. 즉, 정보가 메트로놈(metronome)에 의해 관리되는 것처럼 규칙적인 간격으로 전송된다. 뉴로모픽 칩은 디지털 방식의 뉴런을 통해 병렬 방식으로 소통한다. 필요할 때 언제든 전송할 수 있는 전류 버스트(burst), 즉 스파이크(spikes)를 사용하는데 이것은 인간의 두뇌 활동과 동일하다. 칩의 뉴런이 유입 전류 흐름을 프로세싱함으로서 서로 소통하는 것이다. 들어오는 스파이크로부터 각각의 뉴런들이 그 유입 전류를 다음 뉴런으로 보낼 것인지를 결정할 수 있다.


미 국방고등연구계획국(DARPA, Defense Advanced Research Projects Agency)과 에너지 부(DOE, Department of Energy)는 IBM, 휴렛팩커드, AMD, 인텔과 같은 기업에 수 억 달러를 지원하는 등 뉴로모픽 컴퓨팅 연구에 적극적으로 앞장서고 있다.


오늘날 슈퍼컴퓨터들은 초당 1,000조 번을 연산하는 페타스케일(petascale) 수준에서 엑사스케일(exascale) 수준으로 곧 진화할 것이다. 엑사스케일은 페타스케일보다 1,000배 빠른 속도로 초당 100경 번을 연산한다. 이러한 엑사스케일 슈퍼컴퓨터는 인간의 두뇌와 동등하며 미국에서 가장 강력한 슈퍼컴퓨터 - 국립 오크 릿지 연구소(Oak Ridge National Laboratory)의 타이탄(Titan) - 보다 최소 50배 더 빠르다.


미 에너지부는 최초의 엑사스케일 시스템의 등장을 2021년으로 설정했다. 이들은 자금 지원을 하고 있는 엑사스케일 컴퓨터 중 하나가 새로운 아키텍처를 사용해야한다는 점을 요구했다. 뉴로모픽 컴퓨팅은 그 새로운 기술을 제공하는 강력한 후보다.


인공지능의 발전과 뉴로모픽 연구의 현재를 통해, 우리는 향후 다음과 같이 예측한다.


첫째, 뉴로모픽 칩이 2025년에 이르러 스마트폰에 장착될 것이다.


글로벌 시장조사기관 리서치앤마켓(Research And Markets)에 따르면, 뉴로모픽 칩 비즈니스는 앞으로 5년까지 17억8천만 달러로 확대될 것이다. 이 칩은 손안의 도구에 진정한 인공지능 능력을 가져다주고, 사용자들은 크라우드에 접속할 필요없이 실시간 정보를 얻을 수 있을 것이다. 어플라이드 브레인 리서치(Applied Brain Research) 공동 CEO 피터 수마(Peter Suma)는 명령에만 반응하는 시리아 달리 우리의 삶에 지속적으로 관여하는 인공지능 서비스를 구상하고 있다. 피터 수마는 “당신의 모든 대화와 상호 작용을 듣고 보는 시리를 상상해보자. 우리는 이런 질문도 던질 수 있다. ‘도쿄에서 신제품 런칭에 대해 대화를 나눴던 사람이 누구였지?’ 혹은 ‘멜리사가 제안한 내 아내 생일 선물 아이디어가 뭐였지?’” 모든 정보는 크라우드가 아닌 로컬(개인의 스마트폰)에 저장되기 때문에 개인 정보 보호 정책 데이터는 아무 문제도 되지 않을 것이다.


퀄컴 연구소의 비즈니스 개발 책임자 사미르 쿠마르(Samir Kumar)는 뉴로모픽 칩을 사용하여 스마트폰이 우리가 하는 일, 우리가 간 곳을 계속 모니터링해서 우리가 도움을 청하기 전에 도움을 제공받는 단계까지 갈 것으로 믿고 있다.


“자신과 자신의 도구가 동일한 방식으로 환경을 인지할 수 있다면, 그 도구는 그 사람의 의도를 더 잘 이해하고 그의 니즈를 더 잘 예측할 수 있을 것이다.”


둘째, 뉴로모픽 프로세서가 사물인터넷의 성장을 주도할 것이다.


맥킨지글로벌연구소(McKinsey Global Institute)에 따르면, 사물인터넷은 2025년까지 연간 최대 11.1조 달러의 경제적 효과를 창출할 것이다. 뉴로모픽 칩은 100억 개의 웨어러블(wearable), 센서, 장치들이 인터넷 연결없이 지능적으로 가동될 수 있게 해줄 것이다. 이것은 헬스케어를 포함해 수없이 많은 방식으로 우리 삶에 일대 변화를 일으킬 것이다. 「MIT 테크놀로지 리뷰(the MIT Technology Review)」는 이렇게 말한다.


“의료용 센서와 장치가 개인의 생체 신호를 추적하고 시간에 따른 처치에 반응하여 투약 용량을 조정하거나 혹은 조기에 문제를 발견할 수 있다.”


셋째, 뉴로모픽 칩은 운송, 우주 탐사, 국방, 제조에 지대한 역할을 하게 될 것이다.


뉴로모픽칩은 자율 주행 차량들이 내비게이션을 다루고, 다른 사물, 자동차, 표지 및 신호, 사이렌에 적절하게 반응하고 상호 작용하도록 해줄 것이다. 또한 이 칩은 성간 우주선이 독립적으로, 매우 낮은 전력 소비로 작동할 수 있게 해줄 것이다. 또한 이 칩은 감시용 인공위성에도 배치될 것이다. IBM은 최근 에너지부 산하 로렌스 리버모어 연구소(Lawrence Livermore National Laboratory)에 16개의 칩으로 구성된 트루노스가 배열된 컴퓨터 NS16e를 제공했다. NS16e는 드론을 통해 하늘에서 자동차를 식별하는 애플리케이션에 사용될 것이다. IBM연구소는 또한 적층 가공에서 결함을 탐지하는 데 NS16e를 사용하는 방법을 연구하고 있다. 산업 디자인에 있어 물리적 결함과 같은 복잡한 동적 시뮬레이션을 감독하여 실패를 없애기 위해서다.


넷째, 뉴로모픽 기술의 발전은 엔지니어들로 하여금 인공지능을 활용하는 로봇과 인공 팔다리를 설계할 수 있도록 해줄 것이다.


로봇은 에너지를 적게 소비하면서 음성 명령에 반응하고 주변을 인식하며 독립적으로 탐색할 수 있다. 넥스트플랫폼닷컴(nextplatform.com)에 따르면 스탠포드 실리콘 두뇌 연구소(Stanford’s Brains in Silicon lab)는 ‘브레인 스톰(Brainstorm)’으로 불리는 1백만 개의 뉴런을 가진 뉴로모픽 장치를 개발했다. 생물공학과 콰베나 보아헨(Kwabena Boahen) 교수는 브레인 스톰이 두뇌-기계 인터페이스를 향상시키는 데 사용될 수 있다고 예견한다. 어떤 알고리즘이 마비된 사람의 두뇌에서 그의 원하는 행동을 나타내는 신경 스파이크를 인식해 로봇 팔이 그 명령을 직접적으로 수행하도록 하는 것이다. IBM의 연구원 다멘드라 모드하 (Dharmendra Modha)는 뉴로모픽 칩을 통해 시각 장애인이 센서의 도움으로 사물을 식별할 수 있도록 돕는 안경을 개발하는데 사용될 것이라고 믿는다. 센서가 사물을 인식하고 착용자에게 그 사물을 음성으로 묘사해주는 것이다.


* *


References List :

1. Wired, August 28, 2016, “What Is Moore’s Law? WIRED Explains the Theory that Defined the Tech Industry,” by Lee Bell. ⓒ 2016 Conde Nast.  All rights reserved.
http://www.wired.co.uk/article/wired-explains-moores-law


2. For access to Charles Augustine’s research paper on neuromorphic chips, visit the Cornell University Library website at:
https://arxiv.org/ftp/arxiv/papers/1206/1206.3227.pdf


3. To access IBM’s blog about their TrueNorth neuromorphic chip, visit their website at:
https://www.ibm.com/blogs/research/2016/09/deep-learning-possible-embedded-systems-thanks-truenorth/


4. Wired, March 6, 2017, “The Future of AI Is Neuromorphic. Meet the Scientists Building Digital ‘Brains’ for Your Phone,” by Aaron Frank. ⓒ 2017 Conde Nast.  All rights reserved.
http://www.wired.co.uk/article/ai-neuromorphic-chips-brains


5. BioIT World, June 15, 2017, “Six Companies Get DOE PathForward Grants for Exascale Computing,” by Allison Proffitt. ⓒ 2017 Cambridge HealthTech Institute.  All rights reserved.
http://www.bio-itworld.com/2017/6/15/six-companies-get-doe-pathforward-grants-exascale-computing.aspx


6. PR Newswire, April 10, 2017, “Global Neuromorphic Computing Market 2017?2025: Market to Grow at CAGR of 86.3%, $1.78 Billion Market Opportunities and Recommendations for New Investments?Research and Markets.” ⓒ 2017 PR Newswire Association LLC.  All rights reserved.
http://www.prnewswire.com/news-releases/global-neuromorphic-computing-market-2017-2025-market-to-grow-at-cagr-of-863-178-billion-market-opportunities-and-recommendations-for-new-investments---research-and-markets-300437152.html


7. MIT Technology Review, May/June 2014, “Neuromorphic Chips,” by Robert D. Hoff. ⓒ 2014 MIT Technology Review.  All rights reserved.
https://www.technologyreview.com/s/526506/neuromorphic-chips/


8. To access IBM’s blog about their TrueNorth neuromorphic chip, visit their website at:
https://www.ibm.com/blogs/research/2016/09/deep-learning-possible-embedded-systems-thanks-truenorth/


9. The Next Platform, March 27, 2017, “Stanford Brainstorm Chip to Hints at Neuromorphic Computing Future,” by Nicole Hemsoth. ⓒ 2017 The Next Platform.  All rights reserved.
https://www.nextplatform.com/2017/03/27/stanford-brainstorm-chip-hints-neuromorphic-computing-future/