중국 당국이 중국의 주요 인공 지능(AI) 연구원과 기업가들에게 보안 문제를 이유로 미국 여행을 피하라고 권고했다고 월스트리트저널이 이 문제에 정통한 소식통을 인용해 이달 초 보도했다. 2019년 9월 18일 중국 상하이에서 열린 연례 화웨이 커넥트 행사에서 보안 요원들이 AI(인공 지능) 표지판 앞에서 경계를 서고 있다.  [로이터]
중국 당국이 중국의 주요 인공 지능(AI) 연구원과 기업가들에게 보안 문제를 이유로 미국 여행을 피하라고 권고했다고 월스트리트저널이 이 문제에 정통한 소식통을 인용해 이달 초 보도했다. 2019년 9월 18일 중국 상하이에서 열린 연례 화웨이 커넥트 행사에서 보안 요원들이 AI(인공 지능) 표지판 앞에서 경계를 서고 있다. [로이터]

AI 학습의 새로운 패러다임

수년간 인공지능(AI) 연구는 오픈AI, 구글 딥마인드(DeepMind), 앤트로픽(Anthropic) 등 서구권 빅테크 기업들이 주도해 왔다. 그러나 최근 등장한 딥시크(DeepSeek)는 AI 개발 경쟁의 판도를 바꿀 중요한 전환점으로 보인다. 단순한 거대 언어 모델(LLM)을 넘어, 기존의 통념을 깨는 학습 방식을 제시하며 글로벌 AI 기술의 기준을 새로 쓰려 하고 있다.

딥시크가 놀라운 이유는 성능이 아니라 설계에 있다. 오픈AI의 모델이 방대한 데이터, 사람의 검토, 정교한 강화 학습에 의존하는 반면, 딥시크는 복잡한 절차를 생략하고, 간단하면서도 효율적인 전략을 택했다. 이 방식이 널리 적용된다면, 기존AI의 근본적인 개념이 흔들릴 수 있다.

지나치게 복잡했던 AI 학습, 돌파구가 열릴까?

지난 10년간 AI 발전은 정해진 공식을 따라왔다. 더 큰 모델, 더 많은 데이터, 더 강력한 연산 자원을 투입하는 이른바 ‘물량 공세’다. 물론 효과는 있었다. 하지만 더 나은 방법은 없을지에 대한 의문은 계속됐다. 딥시크는 이에 대한 실질적인 대안을 제공한다. 사람의 평가를 기반으로 한 강화 학습(RLHF: Reinforcement learning with human feedback) 대신, 기존의 강화학습에서 인간의 개입을 대폭 줄인 것이다. 보다 간소화된 방법을 택한 것이다. AI의 응답이 정답인지 여부와 형식에 부합하는지 만을 판단해 학습한다. 사람의 개입도, 복잡한 랭킹 시스템도 없다.

이 차이가 AI의 미래를 완전히 바꿀 수 있다. 비용이 크게 감소해 접근성이 높아지고 동시에 개인의 주관으로부터 비롯되는 편향도 줄어들 것이다. 가장 주목할 만한 점은 AI 연구가 단지 규모 확장에 그치지 않고, 학습 방식 최적화로 전환될 가능성이다. 이는 혁신을 가속화할 수 있다. 막대한 연산 자원 없이도 경쟁력 있는 모델을 구축할 수 있다면, AI 기술의 활용 범위는 더욱 넓어진다. 과거에는 빅테크 기업만이 개발할 수 있었던 고성능 AI 시스템을 이제는 소규모 연구소, 스타트업, 나아가 개인까지도 직접 만들 수 있는 시대가 올 것으로 예상된다.

새롭게 움직이는 글로벌 AI 경쟁 구도

그동안 AI 패권은 사실상 미국의 독무대였고 중국은 그 뒤를 쫓는 입장이었다. 하지만 딥시크의 등장으로 이 구도에 변화의 조짐이 보이고 있다. 딥시크는 단순히 오픈AI를 모방하려는 시도가 아니라, AI 학습 체계에서 뚜렷한 혁신을 보여주고 있기 때문이다. 이는 결코 가볍게 볼 일이 아니다. 만약 딥시크의 성능이 입증된다면, 글로벌 AI 시장에 큰 변동을 일으킬 수 있다. 서구권 주요 연구기관들도 기존 전략을 재검토해야 하고, 이미 AI를 국가 안보 사안으로 다루는 각국 정부는 중국의 기술 효율화에 대응할 정책 마련에 나서야 한다. 특히 눈여겨볼 부분은, AI 학습에서 인간 개입의 요소가 감소하고 AI 가 스스로 학습하며 기준을 만들어가는 형식으로 이동할 가능성이다. 물론 오픈AI, 구글 딥마인드, 앤트로픽 같은 선두 기업들이 당장 우위를 잃지는 않겠지만, 비서구권 연구기관이 흐름을 ‘따르는’ 것이 아니라 ‘선도하는’ 모습을 보이는 점은 의미가 크다.

AI는 더 이상 소수만의 특권(luxury)이어선 안 된다.

오늘날 AI 분야에서 가장 큰 문제 중 하나는, 최첨단 모델을 구축하는데 드는 높은 비용이다. 챗 GPT같은 모델을 훈련하는 데 수천억 원이 소요된다. 결국 미래의 AI를 구상하는 주체는 자금력을 갖춘 대기업이나 정부에 한정되고, 나머지는 그 결정에 따를 수밖에 없는 구조다.

하지만 딥시크의 학습 체계는 다른 방향을 제안한다. 천문학적 예산 없이도 강력한 AI를 구축할 수 있다면, 기술 혁신의 물꼬가 열릴 것이다. 소규모 기업도 경쟁에 참여할 수 있고, AI 개발 역량이 미국과 중국을 넘어 전 세계로 확산될 것으로 보인다. 일반 챗봇 중심의 범용 모델 대신, 더 특화된 AI 모델이 다양하게 등장할 여지도 생긴다.

AI 접근성은 단지 기술적 문제가 아닌 경제적이고 윤리적인 사안이다. AI는 소수만이 아닌 누구나 활용할 수 있어야 한다. 효율적인 학습은 AI의 민주화를 이끌 수 있으며, 기술 인프라가 제한된 지역에서도 충분히 의미 있는 기여가 가능해진다. 또한 AI 개발 비용이 낮아지면, 지금까지 외면받아온 분야에도 적용할 수 있다. 상용 AI에만 집중하는 대신, 기후 변화 예측이나 질병 분석과 같은 즉각적인 수익과는 거리가 있는 글로벌 문제들에 AI를 활용할 기회가 제공될 것이다.

AI가 사람의 판단 없이 작동하는 시대가 올까?

딥시크는 AI 정렬(AI alignment, AI가 인간의 가치관과 윤리적 원칙에 부합하도록 설계하는 과정)에서 새로운 가능성을 제시한다. 현재 대부분의 AI 모델은 사람의 평가기준으로 정렬되기 때문에 편향이 반영되기 쉽다. 반면 딥시크는 주관적 의견이 아닌 정답 여부만을 판별한다. 이 설계가 적용된다면, 더욱 객관적이고 이념적 편향이 적은 모델을 구현할 수 있을 것이다. 물론 이 접근법이 모든 문제를 해결하지는 않는다.

특히 정답이 불분명한 영역에서는 여전히 인간의 감독이 필수적이다. 그럼에도 불구하고, 딥시크의 방식이 효과를 입증한다면 AI가 사람의 주관에 덜 의존하도록 할 수 있을 것이다.

2018년 10월 베이징에서 열린 공공안전 및 보안 관련 전시회에서 인공지능을 시연하는 모습 [로이터]
2018년 10월 베이징에서 열린 공공안전 및 보안 관련 전시회에서 인공지능을 시연하는 모습 [로이터]

딥시크의 보안 우려

딥시크의 혁신은 큰 기대를 모으지만, 동시에 보안 문제 또한 불러온다. 비용이 낮아지고 접근성이 향상되면서 악의적인 이용의 위험도 커진다. 적은 자원으로 고성능 AI모델을 만들 수 있게 되면, 허위 정보, 정교한 딥페이크, 자동화된 사이버 공격의 증가로 이어질 수 있다.또 다른 문제는 학습 과정에서 인간의 개입이 줄어든 점이다. 사람의 판단에 덜 의존한다는 것은 장점이지만, 시스템이 안전하게 작동하는지 점검할 수단이 줄어든다는 의미이기도 하다. 사람의 평가 없이 훈련된 모델은 적절한 안전장치 없이 운영될 경우, 예측이나 통제가 어려운 방향으로 작동할 위험이 있다.

지정학적 영향도 상당하다. 만약 중국 AI 연구기관들이 서구권보다 더 효율적으로 최첨단 모델을 개발하기 시작한다면, AI 연구 주도권이 바뀔 수 있다. 이에 따라 각국 정부는 이러한 기술 발전이 안보 위협이나 국제 분쟁에서의 오남용으로 이어지지 않도록 제도적 정비에 나설 필요가 있다.

결국 딥시크는 AI의 새로운 가능성을 열었지만, 그만큼 안전, 윤리, 글로벌 안정성에 대한 깊은 고민도 함께 요구되는 시점이다. 기술을 앞당기는 것만큼이나, 그에 따르는 위험에 대응하는 일도 중요하다.

앞으로 전개 방향

딥시크는 AI 발전의 핵심은 모델의 크기가 아닌 학습의 변화라는 사실을 일깨워 준다. 앞으로의 AI는 무작정 덩치를 키우기보다 학습 방법 자체를 재검토하는 방향으로 전환될 전망이다. 딥시크는 그 움직임이 이미 시작됐다는 것을 보여주는 사례다.

관심은 기존 강자들인 오픈 AI와 딥마인드의 대응에 쏠린다. 흐름에 발맞출지, 아니면 밀려날 때까지 기존 전략을 고수할지 지켜볼 일이다. 한 가지 분명한 것은, AI 혁신이 더 이상 서구만의 전유물이 아니라는 점이다. 이제 AI의 미래는 더 흥미로운 국면으로 접어들고 있다.

마이클 얼리슨은 누구

이스라엘 벤처기업 스텔스모드(Stealth Mode)의 AI 책임자로 인공지능과 보안 분야에서 혁신적인 솔루션을 설계하고 있다. 공학 및 기술 분야에서 세계적인 권위의 이스라엘 공과대학인 테크니온에서 응용수학 박사 학위를 받았다. 히브리어와 영어로 현대 딥러닝 연구를 검토하는 프로젝트인 DeepNightLearners의 창립자다. 350편이 넘는 연구 리뷰를 발표한 그는 복잡한 아이디어를 이해하기 쉽게 설명해 실무자, 학생, 애호가들의 이해를 높이고 있다. 고급 AI 개념을 많은 사람들이 쉽게 이용할 수 있도록 하는 데 주력하고 있다. 전 세계적으로 58,000명 이상의 소셜 팔로워를 보유하고 있다.

Chinese authorities have advised the country’s leading artificial intelligence (AI) researchers and entrepreneurs to avoid traveling to the United States over security concerns, the Wall Street Journal reported early March, citing sources familiar with the matter. Security officers keep watch in front of an AI (Artificial Intelligence) sign at the annual Huawei Connect event in Shanghai, China, Sept. 18, 2019[Reuters]
Chinese authorities have advised the country’s leading artificial intelligence (AI) researchers and entrepreneurs to avoid traveling to the United States over security concerns, the Wall Street Journal reported early March, citing sources familiar with the matter. Security officers keep watch in front of an AI (Artificial Intelligence) sign at the annual Huawei Connect event in Shanghai, China, Sept. 18, 2019[Reuters]

How DeepSeek-R1 Could Reshape the Global AI Landscape

A New Paradigm in AI Training

For years, I’ve watched artificial intelligence(AI) research dominated by Western tech giants like OpenAI, Google DeepMind, and Anthropic. But with the emergence of DeepSeek-R1, I see a real turning point. More than just another large language model (LLM), it introduces a novel training approach that challenges conventional wisdom and could redefine AI development globally.

What fascinates me about DeepSeek-R1 isn’t just its performance-it’s how it was built. Unlike OpenAI’s models, which rely on massive datasets, human-labeled preferences, and reinforcement learning with complex reward models, DeepSeek-R1 takes a streamlined approach. It discards much of the intricate reinforcement learning techniques in favor of a minimalist yet effective training strategy. If this method proves scalable, I believe it could force the AI industry to rethink some of its fundamental assumptions.

Have We Been Overcomplicating AI Training?

For the past decade, AI progress has followed a predictable formula: make models bigger, feed them more data, and throw more compute at the training process. This brute-force scaling approach works, but I’ve always wondered-are we missing a smarter way? DeepSeek-R1 suggests we might be. Instead of relying on reinforcement learning with human feedback (RLHF), it uses a much simpler mechanism: a binary reward signal-right or wrong-plus a format penalty. No human preference labels, no complicated ranking systems.

This could change everything. Training costs might drop dramatically, making cutting-edge AI more accessible. Human biases, which inevitably creep in through RLHF, could be reduced. Perhaps most importantly, AI research might shift from mere scaling toward genuinely optimizing how models learn. A more efficient training method could also accelerate AI innovation. If researchers no longer need enormous computational resources to develop competitive models, we might see a more diverse range of AI applications. Imagine smaller research labs, startups, and even independent researchers building powerful AI systems that were previously only within the reach of tech giants.

The Global AI Race Just Got More Interesting

Let’s be honest-until now, AI leadership has been largely American, with China playing catch-up. But DeepSeek-R1 changes the equation. This isn’t just another attempt to replicate OpenAI’s work-it’s a genuinely innovative approach to AI training. That’s a big deal. If DeepSeek-R1 turns out to be as competitive as it seems, we could see major shifts in the AI landscape. Western AI labs might need to rethink their own training strategies. Governments, already treating AI as a national security issue, will have to consider the implications of China developing more efficient AI models. And perhaps most intriguingly, research priorities could shift away from human-labeled preference models toward self-supervised techniques. I don’t think OpenAI, DeepMind, or Anthropic will lose their lead overnight. But for the first time in a while, a non-Western AI lab isn’t just following trends-it’s setting them.

AI Shouldn’t Be a Luxury

One of my biggest frustrations with AI today is how expensive it is to develop cutting-edge models. Training something like GPT-4 costs hundreds of millions of dollars. That means only the wealthiest companies and governments get to shape the future of AI, while everyone else just has to live with their decisions.

DeepSeek-R1’s training method suggests a different path. If AI can be trained without billion-dollar budgets, it could unlock a wave of innovation. Smaller companies might finally have a chance to compete. AI development, which is currently concentrated in the USA and China, could become more globally distributed. And we might see more specialized AI models instead of just general-purpose chatbots dominating the field.

To me, this isn’t just a technical issue-it’s an economic and ethical one. AI should be accessible, not monopolized by a handful of organizations. More efficient training methods could democratize AI, allowing researchers in regions with less access to computational power to contribute to the field meaningfully. Additionally, making AI development more cost-effective could open doors to applications that are currently neglected. Instead of focusing solely on commercial AI products, researchers might explore AI solutions for climate modeling, disease prediction, and other global challenges that aren’t always immediately profitable.

A More Autonomous Approach to AI Alignment?

Another aspect of DeepSeek-R1’s training method intrigues me: what it could mean for AI alignment. Right now, most models are aligned using human feedback, which inevitably introduces biases. DeepSeek-R1’s binary reward system(correct/incorrect) suggests an alternative: training AI with pure correctness signals rather than subjective human opinions. If this method scales, we could see AI models that are more objective, less prone to ideological biases, and more scalable in their alignment process. Of course, this approach won’t solve all alignment problems. Human oversight is still essential, especially in areas where correctness isn’t black-and-white. But if DeepSeek’s method works, it could make AI alignment less dependent on human subjectivity-which, in my view, is a step in the right direction.

A demonstration of artificial intelligence at an exhibition on public safety and security in Beijing, October 2018. Thomas Peter[Reuters]
A demonstration of artificial intelligence at an exhibition on public safety and security in Beijing, October 2018. Thomas Peter[Reuters]

The Security Concerns of DeepSeek-R1

While the innovations in DeepSeek-R1 are exciting, they also introduce new security concerns. One of the biggest risks is that making AI training cheaper and more accessible could lower the barrier to entry for malicious actors. If powerful AI models can be developed with fewer resources, we might see an increase in AI-generated misinformation, deepfakes, and automated cyber threats.

Another critical concern is the lack of human oversight in the training process. While reducing reliance on human-labeled preferences has advantages, it also means there are fewer mechanisms to ensure AI behaves safely. Without careful safeguards, models trained using binary reward signals could develop unintended behaviors that are difficult to predict or control.

The geopolitical implications are also significant. If China’s AI labs begin developing state-of-the-art models more efficiently than their Western counterparts, it could shift the balance of power in AI development. Governments will need to consider how to regulate and monitor AI progress to ensure that these advancements do not lead to security vulnerabilities or misuse in global conflicts.

Ultimately, while DeepSeek-R1 presents an exciting new approach to AI training, it also raises serious questions about safety, ethics, and global stability. Addressing these challenges will be just as important as pushing the technology forward.

Where Do We Go from Here?

DeepSeek-R1 is a wake-up call. AI progress isn’t just about making models bigger-it’s about rethinking how we train them. I don’t think brute-force scaling will be the future of AI forever, and DeepSeek-R1 is proof that new training methods can change the game.

I’m eager to see how OpenAI, DeepMind, and others respond. Will they adapt? Or will they stick to their old methods until they’re forced to change? One thing is clear - AI innovation isn’t just coming from the West anymore. And in my opinion, that makes the future of AI a lot more exciting.

Dr. Erlihson earned his Ph.D. in Applied Mathematics from Technion - Israel Institute of Technology, a globally renowned institution for engineering and technology. As Head of AI at a pioneering venture, Stealth Mode. Dr. Erlihson architects transformative solutions in artificial intelligence and security. Dr. Erlihson has a passion for making advanced AI concepts accessible to a broader audience. He is the founder of DeepNightLearners, a project dedicated to reviewing contemporary deep learning research in both Hebrew and English. With over 350 research reviews published, his work demystifies complex ideas, fostering greater understanding among practitioners, students, and enthusiasts. His thought leadership is evidenced by an impressive social following of over 54,000 individuals globally.