In 1953 the philosopher Isaiah Berlin wrote an influential essay called “The Hedgehog and the Fox,” which drew upon an ancient Greek proverb that “a fox knows many things, but a hedgehog knows one big thing.” Berlin used the image to divide thinkers and creators into two camps: hedgehogs who see the world through a single defining idea or vision; and foxes, who can see the world from multiple perspectives at once.
In the end, neither beast is superior or better to the other. What the hedgehog gains in clarity and precision, Berlin argued, the fox gains in agility and versatility. Bring them together, however, and the result is an explosion of creativity and power.
At first glance today‘s AI would seem the proverbial fox of high-tech, thanks to ChatGPT and generative AI apps’ ability to move and make decisions faster than human judgment, even faster than the human eye.
Meanwhile, today‘s quantum computers seem the plodding, slow-moving hedgehog, as scientists and engineers at Google, Intel, Microsoft, IonQ, and other companies work laboriously to increase the number of entangled qubits to increase their computer’s power.
So while AI spreads like wildfire across the global economy and changing lives and experiences, the timeline for large-scale quantum computers lags far behind, as the diagram above shows. Some skeptics even wonder if we‘ll ever get to the point where quantum computers can make s significant difference in the quality of human life, or in our economy.
But perhaps it‘s time to look at the problem from a different angle, i.e. from the underlying physics of both technologies. Seen in that light, AI actually turns out to be the slow moving hedgehog; and quantum the quick darting fox.
Why? Because AI ultimately relies on the same predictable pattern of digital computations, no matter how fast and spontaneous its insights and conclusions may seem. At the same time, machine learning, the true workhorse of AI, remains a mechanical mock-up of the intricacies of the human brain, not an exact replica―even in its deep neural networks state.
Quantum science, on the other hand, is built on the unpredictable bountiful randomness of nature itself as embodied in the quanta, the most basic unit of energy and reality. The quanta move at the swift speed of light itself―in fact they define the speed of light. Unpredictable, lightning fast, dwelling in a realm beyond human certainty or control: the quanta map out a future that is unseen but contains all the limitless possibilities of nature, and of humanity‘s place in that nature.
Let me explain.
All machine learning, the foundation of AI, involves a computer‘s ability to recognize patterns in sets of data―whether those data are sounds, images, electrical pulses, or financial transactions. The mathematical representation of these data is called a tensor. As long as data can be converted into a tensor, it’s ready for ML and its more complex offspring, Deep Learning. Deep Learning builds algorithms copied from the structure and functions of the brain‘s neural network, in order to build a predictive model. As the diagram shows, it “learns” by using other testing datasets that correct and validate its initial model.
What ML operators develop is a prediction curve based on the recognition of past patterns. The more data, the better the model. Patterns that didn‘t appear in tens of thousands of examples can suddenly become glaringly obvious in the millionth or ten millionth example.
There‘s nothing magical about AI/ML. All it does is create high-capacity statistical models that can find statistical regularities in larger and larger datasets. Its deep neural networks may be able to seize on those regularities quicker than meets the human eye; but the procedure is no different than any other digital technology.
Here I have a personal confession. I find the physics (as opposed to the science) of AI/ML boring. By contrast, the physics of quantum hums and dances in fascinating and unpredictable ways.
As we pointed out in our last column, the power of a quantum computer rests on the physics of quanta of energy, the most basic building block of matter. Even when harnessed by quantum scientists to do instantaneous calculations in multiple states, the quantum-based bits or qubits remain defiant of human guidance or predictability. Their inherent tendency toward randomness―which makes a random number generator for cryptography using quantum truly and invincibly random unlike its digital emulators―during quantum computations is called “noise.” Today‘s quantum computers are very “noisy,” in that keeping their qubits in an orderly patterns of entanglement is a frustrating challenge, which means the machine will generate a wrong answer to your question almost as often as the right one.
Computer scientists see this “noise” as a drawback, as well as they should. But it‘s not the only place where we encounter “noise” generated by quanta. It also happens in the human eye, where the millions of quanta pouring out from a light source send a confusing array of optical signals which the rods and cones of the physical eye must sort out, in order to recognize patterns and colors at all. In short, quantum noise is part of nature and life. Now it’s part and parcel of the computers of the future.
But here‘s where AI/ML can help. AI can help to cut through the “noise” and sharpen our understanding of the signals generated by the agile quantum computing process. At the same time quantum can deepen and make more precise the calculations run by AI/ML.
For example, quantum computing offers powerful advances in combinatorial optimizing, i.e. finding the most efficient of resources and supply chain allocation. Quantum computing is already showing its skill in modeling the behavior of complex systems like molecular simulations. Its ability to enhance ML tasks including matrix diagonalization and pattern matching with even sharper precision, will all help with sifting out the best and quickest solution from a myriad of data and possibilities.
Then when we bring the fox and hedgehog together in hybrid systems, i.e. ones that integrate quantum‘s rapid capabilities with AI/ML’s solid grounding, the results can be spectacular.
Some will be concerning, as when hybrid quantum/AI platforms are able to factorize the large prime numbers that underlie public encryption systems, from RSA to AES Then the “cryptographically relevant quantum computers” governments and industries all worry about, become reality far sooner than faster than the experts expected.
Other results, however, will be life-saving and life-enhancing, with the rapid development of new drugs and biotech research methodologies, including advances in brain-computer interface (BCI). Together AI and quantum will be able to empower a next―generation of industrial robots that can handle toxic or hazardous tasks and materials without missing a beat or spilling a drop.
In the realm of space, quantum and AI together will be able to seamlessly direct satellite traffic in an increasingly crowded Low Earth Orbit (LEO), and speed the development of new power sources like Helium 3, which opens up the possibility of space travel deep into the solar system. The advent of nuclear-powered propulsion in space, will seem an everyday achievement.
The quantum/AI combination will also transform the power grid, making it more productive but also more secure, while advances in areas like nuclear fusion will become commonplace.
In sum, the coming Quantum/AI convergence will mean an even greater, more productive future for all of us―once we understand, that is, which is the real hedgehog, and which the fox.
양자와 AI :고슴도치와 여우
1953년에 출판된 철학자 아이제이아 벌린(Isaiah Berlin)의 유명한 수필 “고슴도치와 여우”는 “여우는 많은 것을 알지만 고슴도치는 큰 것 하나를 안다”는 그리스 속담을 인용한 책이다. 벌린은 이 이미지를 사용해 사상가와 창작자들을 두 진영으로 나눴다. 하나의 중요한 생각 또는 비전을 통해 세상을 보는 고슴도치와 동시에 다양한 관점으로 세상을 볼 수 있는 여우로 말이다.
결국 둘 중 어느 짐승도 다른 짐승보다 우월하거나 더 낫지 않다. 벌린은 고슴도치에게 명확함과 정밀함이 있다면 여우에겐 민첩함과 다재다능함이 있다고 말했다. 그렇다면 이 둘을 합쳐보자. 폭발적인 창의성과 힘을 보게 될 것이다.
얼핏 보면 오늘날의 AI는 인간의 판단보다, 심지어 인간의 눈보다 더 빠르게 움직이고 결정을 내릴 수 있는 챗GPT와 생성형 AI 앱의 능력 덕분에 속담에 나오는 여우처럼 보인다.
반면, 현재 구글, 인텔, 마이크로소프트, 아이온큐 및 여러 회사의 과학자와 엔지니어들이 컴퓨터의 연산력을 높이기 위해 얽힌 큐비트 개수를 늘리려고 열심히 노력하는 상황에서 오늘날의 양자 컴퓨터는 꾸준히 느릿느릿 움직이는 고슴도치처럼 보인다.
따라서 AI는 세계 경제 전반에 산불처럼 퍼지며 우리의 삶과 경험을 변화시키고 있지만, 대규모 양자 컴퓨터의 일정은 훨씬 뒤처져 있다. 일부 회의론자들은 양자 컴퓨터가 인간의 삶의 질이나 경제에 유의미한 변화를 가져오는 시점이 과연 도래하기는 할는지 의문을 품고 있다.
하지만 이젠 이 문제를 다른 각도, 즉 이 두 기술의 기저 물리학적 관점에서 바라봐야 할 때이다. 이 관점에서 보면 사실 AI가 천천히 움직이는 고슴도치이고 양자는 쏜살같이 달리는 여우다.
왜 그럴까? AI의 통찰력과 결론이 그 아무리 빠르고 즉흥적인 것처럼 보인다고 하더라도 여전히 예측 가능한 디지털 연산 패턴에 의존하기 때문이다. 게다가 AI의 진정한 일꾼인 머신러닝(ML)은 심층 신경망 상태에서도 인간의 두뇌를 그대로 복제한 것이 아니라 인간 두뇌의 복잡성을 기계적으로 모방한 모형에 불과하다.
반면, 양자 과학은 에너지와 현실의 가장 기본 단위인 양자로 구현된 자연 그 자체의 예측할 수 없는 풍부한 무작위성에 기반을 두고 있다. 양자는 빛의 속도로 움직인다. 사실 빛의 속도를 정의하는 것이 양자이다. 예측 불가능하고, 번개처럼 빠르며, 인간의 확실성이나 통제를 넘어선 영역에 존재하는 양자는 예측할 순 없지만 자연 및 그 자연 속 인류의 위치에 대한 모든 무한한 가능성을 포함한 미래를 그려낸다.
설명하면 다음과 같다.
AI의 토대인 모든 머신러닝은 음성이든, 이미지이든, 전기 펄스든 금융 거래 데이터이든 일련의 데이터 세트에서 패턴을 인식하는 컴퓨터의 능력을 필요로 한다. 이런 데이터를 수학적으로 표현한 것을 텐서(Tensor)라고 한다. 데이터가 텐서로 변환될 수 있는 한 그 데이터를 ML에 사용할 수 있고, ML의 더 복잡한 파생물인 딥러닝에 사용할 수도 있다. 딥러닝은 뇌 신경망의 구조와 기능을 모방한 알고리즘을 만들고, 이를 통해 예측 모델을 구축한다. 딥러닝은 초기 모델을 수정하고 검증하는 다른 테스트 데이터 세트들을 사용하여 “학습”한다.
ML 운영자들이 개발하는 것은 과거 패턴 인식을 기반으로 한 예측 곡선이다. 데이터가 많으면 많을수록 모델이 더 좋아진다. 수만 개의 예시에서 눈에 띄지 않았던 패턴이 백만 번째 또는 천만 번째 예에서 갑자기 확연하게 드러날 수 있기 때문이다.
AI/ML은 마법이 아니다. 점점 더 커지는 데이터 세트에서 통계적 규칙성을 찾을 수 있는 대용량 통계 모델을 만드는 것뿐이다. AI/ML의 심층 신경망은 사람의 눈보다 이런 규칙성을 더 빠르게 포착할 순 있지만 그 과정은 여타 디지털 기술들과 다르지 않다.
필자는 AI/ML 물리학(과학이 아니라)이 지루하다고 생각한다. 대조적으로, 양자 물리학은 매혹적이고 예측 불가한 방식으로 콧노래를 부르며 춤을 춘다.
지난 칼럼에서 지적했듯이, 양자 컴퓨터의 힘은 물질의 가장 기본적인 구성요소인 에너지 양자의 물리학에 달려 있다. 양자 과학자가 다양한 상태에서 즉각적인 계산을 하기 위해 이를 활용하는 경우에도 양자 기반의 비트, 즉 큐비트(Qubit)는 인간의 지시나 예측 가능성에 저항한다. 우리는 양자 연산 과정 중 무작위적이 되려는 큐비트의 고유한 경향을 “노이즈(잡음)”라고 부른다. (바로 이 속성 덕분에 디지털 난수 생성기와 달리 양자를 활용하는 암호화용 난수 생성기는 뚫을 수 없을 정도로 진짜 무작위적이다.) 오늘날의 양자 컴퓨터는 매우 “노이즈가 많고,” 큐비트를 질서정연한 얽힘 패턴으로 유지하기는 매우 어렵다. 다시 말해, 양자 컴퓨터는 여러분의 질문에 대해 올바른 답변만큼이나 자주 잘못된 답변도 생성할 것이란 뜻이다.
컴퓨터 과학자들은 이 “노이즈”를 단점으로 본다. 물론 마땅히 그래야 한다. 그러나 양자에 의해 발생되는 “노이즈”가 양자 컴퓨터에만 있는 건 아니다. 이는 사람의 눈에서도 발생하는데, 광원에서 쏟아져 나오는 수백만 개의 양자가 혼란스러운 배열의 광학적 신호를 보내면 우리 눈의 간상세포와 원추세포는 패턴과 색상을 인식하기 위해 이를 분류해 내야 한다. 간단히 말해, 양자 노이즈는 자연과 생명의 일부이고, 이제는 미래 컴퓨터의 핵심적인 부분이 됐다.
바로 여기서 AI/ML이 도움이 될 수 있다. AI는 “노이즈”를 제거하고 민첩한 양자 컴퓨팅 프로세스에 의해 생성된 신호에 대한 우리의 이해를 높이도록 도울 수 있다. 이와 동시에 양자는 AI/ML이 실행하는 계산을 더욱 심화하고 또 정확하게 만들어 줄 수 있다.
예를 들어, 양자 컴퓨팅은 조합 최적화, 즉 가장 효율적으로 자원 및 공급망을 할당하는 작업에 뛰어나다. 양자 컴퓨터는 이미 분자 시뮬레이션과 같은 복잡한 시스템의 행위를 모델링하는 데 탁월한 능력을 보이고 있다. 행렬 대각화와 패턴 매칭 등 ML 작업을 향상하고 더 정확하게 만들어 줄 수 있는 양자 컴퓨터의 능력은 수많은 데이터와 가능성 중에 가장 좋고 가장 빠른 해결책을 선별해 내는 데 도움이 될 것이다.
이제 여우와 고슴도치를 합친다면, 즉 양자의 빠른 능력과 AI/ML의 견고한 기반이 하이브리드 시스템으로 합쳐진다면 그 결과는 놀라울 것이다.
일부 결과는 우려스러울 수 있다. 하이브리드 양자/AI 플랫폼이 RSA에서 AES에 이르는 공용 암호화 시스템의 기반이 되는 큰 소수를 인수분해할 수 있게 되면, 정부와 산업계가 모두 우려하는 “암호 관련 양자 컴퓨터(CRQC)는 전문가들의 예상보다 훨씬 더 빨리 현실이 될 수 있다.
그러나 그 외의 결과들은 뇌-컴퓨터 인터페이스(BCI) 기술 개발을 포함한 신약 및 생명공학 연구 방법론의 급속한 발전으로 생명을 살리고 삶을 향상시켜 줄 것이다. AI와 양자가 결합하면 주저함 없이 한 방울도 흘리지 않고 독성이 있거나 위험한 작업 및 재료를 처리할 수 있는 차세대 산업용 로봇을 만들 수 있을 것이다.
우주 영역에서는 양자와 AI가 함께 점점 더 혼잡해지는 지구 저궤도(LEO)에서 위성 트래픽의 통행을 원활하게 유도하고, 헬륨3과 같은 새로운 전력원의 개발을 가속함으로써 태양계 깊은 곳까지 우주 여행의 가능성을 열어줄 것이다. 우주에서 사용할 수 있는 원자력 추진 장치의 개발 정도는 일상적인 성취처럼 보이게 될 것이다.
또한 양자/AI 결합은 전력망에도 변화를 가져와 생산성을 높이고 더 안전하게 만들 것이며, 핵융합 등과 같은 분야의 발전은 흔한 일이 될 것이다.
요약하면, 다가오는 양자/AI 융합은 우리 모두에게 훨씬 더 거대하고 더 생산적인 미래를 의미한다. 일단 우리가 어느 것이 진짜 고슴도치이고 어느 것이 여우인지 제대로 이해한다면 말이다.