YouTube Digest
Listen to this issue
English
Based on “No Legal Background. Then He Built a $5.5B AI Company | Legora, Max Junestrand” from EO Watch the original video
The Gamer’s Gambit: How a Non-Lawyer Built a $5.5 Billion Legal AI Empire
In the world of high-stakes corporate law, the “grind” is usually measured in billable hours, leather-bound case files, and late nights in mahogany-rowed offices. But for Max Junestrand, the co-founder and CEO of Leya, the grind started in a much different environment: the high-intensity, pixelated battlegrounds of Dota 2.
Junestrand doesn’t have a law degree. He didn’t spend his twenties clerking for judges or mastering the nuances of tort reform. Yet, in just two years, he has scaled Leya from three engineers in a Stockholm office to a $5.5 billion AI powerhouse with over 750 clients and 300 employees. His journey is a masterclass in how “outsider” perspectives—combined with a gamer’s obsession with optimization—can disrupt one of the world’s most traditional industries.
From the Swedish Archipelago to the Digital Arena
Growing up in the quiet Swedish archipelago, Junestrand felt a void where competition should be. He sought that missing intensity in two places: sports and video games. It was in Dota 2, a complex multiplayer battle arena game, where he learned the foundational lessons of his leadership style.
“Gaming taught me that if you want to be great, you have to grind,” Junestrand explains. “It’s not enough to just play more hours. You’ve got to play smarter and learn more. You have to bring a level of intensity better than anyone else.”
In Dota, success depends on five players collaborating with seamless synchronization. As a CEO, Junestrand views his role similarly—not as the smartest person in the room, but as the conductor who makes the “band play together.” This philosophy of the “infinite game” has allowed Leya to move at a pace that has left traditional legal tech incumbents reeling.
The “Jaw-Drop” Moment: Solving the Right Problems
When Junestrand looked at the legal industry, he didn’t see a barrier to entry; he saw a goldmine of “meaningful problems.” The vision for Leya was simple yet audacious: create the “10x lawyer” by using AI to automate the soul-crushing administrative tasks that keep attorneys from actual legal thinking.
The company’s early momentum was sparked during an incubation period at Mannheimer Swartling, Sweden’s premier law firm. Instead of building in a vacuum, Junestrand and his team sat in a borrowed conference room, working side-by-side with their future users.
He recalls the pivotal moment that proved they were onto something huge: “I would ask users to take an old memo or part of a case they had worked on, upload it, and ask Leya to do a first draft. When they saw the results, it was a ‘leaning back, drop the chin’ moment.”
That visceral reaction—the realization that hours of work could be condensed into seconds—provided the fuel to scale.
The San Francisco Leap and the “Ring Light” Era
As Leya began to dominate the European market, Junestrand faced a crossroads: stay in the comfortable European ecosystem or move to the “big leagues” in the United States. Despite having a thriving business in Europe, he chose the latter, joining the prestigious Y Combinator (YC) accelerator in San Francisco.
The transition wasn’t easy. To keep the European engine running while building a footprint in the U.S., Junestrand lived a double life. “I bought a ring light to shine on my face when I took calls between 1:00 a.m. and 10:00 a.m. toward the other side of the world,” he says.
This relentless pace paid off. During the YC program, Leya went from zero to nearly $1 million in Annual Recurring Revenue (ARR) in just six weeks. By the time they opened their Manhattan office, they had already secured partnerships with “white shoe” heavyweights like Cleary Gottlieb and Goodwin Procter.
Scaling the Unscalable: 3 to 300
Moving from a three-person startup to a 300-person global organization requires more than just good code; it requires a radical shift in the founder’s mindset. Junestrand’s approach to scaling is rooted in brutal self-discipline.
“The hardest part is that your role changes the fastest,” he admits. “You cannot be married to the way things were done. You have to be your own best boss and be disciplined about not working on the easy things, but the really hard things.”
Even with 300 employees across Denver, New York, London, Stockholm, India, and Sydney, Junestrand remains deeply involved in the hiring process, still interviewing every person who joins the company. He looks for three specific traits:
- Capacity to grow: Can this person evolve as fast as the company?
- Problem-solving reflection: Can they look back at a hard problem and articulate how they would solve it better today?
- Ambition: Do they want to take personal responsibility for the company’s outcome?
The Human Impact of AI
While the $5.5 billion valuation and the aggressive quarterly growth are the metrics the media focuses on, Junestrand finds his motivation in a specific Slack channel titled “Customer Love.”
In a profession notorious for burnout and high divorce rates, the impact of Leya isn’t just about efficiency—it’s about time. “There’s nothing as rewarding as when people let us know we’ve made their day better,” Junestrand says. “They were able to finish a piece of work and get home to their families to see their kids before they went to bed.”
The Journey to 100
For many, reaching unicorn status is the finish line. For Junestrand, it’s merely the end of the warm-up. He views the current state of legal AI as the transition from “0 to 1.” The real work—the journey from “1 to 10” and “10 to 100”—is just beginning.
“We can’t be fast followers. We’ve got to be the innovators,” he asserts. As he looks toward 2027, he isn’t just building a software tool; he’s building the infrastructure for the future of law.
His advice for aspiring founders is a reflection of his own journey: “You need to be really excited about what you’re doing. If you pick something you aren’t excited about, the grind will be too hard. I wake up every day thinking about how we deliver more value.”
In the high-stakes game of legal tech, Max Junestrand is no longer just a player; he’s rewriting the rules of the game.
Based on “Karpathy’s “autoresearch” explained in 24 minutes” from Greg Isenberg Watch the original video
The Era of the Automated Scientist: Inside Andrej Karpathy’s “Auto-Research” Revolution
In the fast-moving world of artificial intelligence, a few names carry enough weight to stop the industry in its tracks. Andrej Karpathy—founding member of OpenAI and former Director of AI at Tesla—is one of them. When Karpathy releases a new project, it isn’t just a code update; it’s a signal of where the wind is blowing.
His latest obsession, a concept known as “Auto-Research,” has recently gone viral, capturing the imagination of Silicon Valley’s elite, including Shopify CEO Tobi Lütke. But what exactly is it, and why are people calling it the beginning of a new era in productivity?
At its core, auto-research is the realization of every entrepreneur’s dream: a “super-nerd robot intern” that runs science experiments on AI models all night long, while you sleep, without requiring a second of manual intervention.
The Anatomy of the Loop: How Auto-Research Works
To understand auto-research, you have to move away from the idea of AI as a chatbot and start seeing it as an agent. Traditional AI waits for a prompt; an auto-research agent follows a loop.
The process begins with a goal. You might tell the agent, “Make this small AI model smarter” or “Find a way to reduce the cost of this code without losing accuracy.” Once the goal is set, the agent takes over the driver’s seat:
- Planning: The agent drafts a plan involving different settings, architectural changes, or data tweaks.
- Execution: It physically edits the Python code and initiates a training experiment on a GPU (Graphics Processing Unit).
- Evaluation: After running for a set period (perhaps five minutes or an hour), the agent reads the resulting metrics.
- Iteration: It asks itself, “Did that work?” If the results improved, it saves the changes. If they didn’t, it logs the failure and tries a completely different path.
As Greg Isenberg, a prominent tech voice and entrepreneur, puts it: “You wake up, grab the best version, and turn it into something you charge for.” It is the “Ralph Loop” applied to the scientific method—engineering that happens 24/7.
From Code to Commerce: 10 Ways to Monetize Auto-Research
While Karpathy’s initial focus was on optimizing AI models, the business community has quickly realized that this “loop” logic can be applied to almost any money-making endeavor. Here is how the next generation of startups will likely leverage auto-research:
1. The “Agent in a Box” for Niche Markets
The most immediate opportunity lies in creating tiny, hyper-focused auto-research loops for specific industries. Imagine an “Amazon Listing Experimenter” that constantly tweaks product titles and descriptions to find the highest conversion rate, or an “Email Sequence Tuner” for realtors that iterates on subject lines until the open rate hits a record high.
2. Autonomous A/B Testing
The days of manually setting up A/B tests in tools like Optimizely may be numbered. An auto-research agent can write dozens of variants of headlines, layouts, and offers, push them to live traffic, measure the clicks, and automatically promote the winner to the “control” position.
3. Research as a Service (RaaS)
Startups and investors spend thousands of hours on due diligence and competitor analysis. An auto-research bot can be pointed at a market to constantly monitor pricing changes, feature updates, and regulatory shifts across hundreds of competitors, delivering a “living memo” that is always fresh.
4. The “Optimize” Button
For existing SaaS companies, auto-research offers a high-tier feature: a literal “Optimize” button. A user could press it, and the system would run a mini-research loop in the background to tune the user’s prompts, rank their suppliers, or pick their best pricing tiers based on historical data.
5. The 100x Agency
The agency of the future won’t pitch creativity; they will pitch volume. “We run 100 times more tests than any other shop for the same fee,” the pitch goes. By using auto-research, an agency can test thousands of ad angles or landing page variables, charging a performance fee for the KPI lifts they achieve.
6. Auto-Quant Trading
In finance, auto-research can be used to run back-tests of simple trading rules overnight. By using Large Language Models (LLMs) to screen for sentiment or filter factors, traders can discard failing strategies and only put capital behind the ones that survived the automated “survival of the fittest” gauntlet.
7. Lead Qualification and CRM Autopilot
By connecting an auto-research agent to a CRM like Salesforce, businesses can test different follow-up rules and messages. The agent learns which leads are most likely to buy and drafts the perfect outreach, allowing sales teams to focus only on high-value closing calls.
8. Finance Ops and Invoice Matching
The loop can be applied to the “grunt work” of accounting—grinding through invoice matching and expense reports, and continuously improving the prompts used to detect exceptions and fraud.
9. Internal Productivity Labs
Large organizations can treat their own KPIs—like ticket resolution time or sales close rates—as the “model” to be optimized. Agents can iterate on internal workflows and templates until the manual labor is stripped away, leaving only high-impact decisions for the humans.
10. Done-for-You Due Diligence
For M&A (Mergers and Acquisitions), auto-research can chew through thousands of pages of filings and product reviews to create structured briefs for investors, identifying risks that a human researcher might miss in a time-crunched environment.
The Human Impact: Beyond the Bottom Line
The excitement surrounding Karpathy’s work isn’t just about profit; it’s about the speed of human progress. Tech entrepreneur Morgan Linton recently shared a vision of how this could transform medicine.
“It feels like in many ways clinical trial design is itself a kind of hyperparameter search,” Linton noted. Currently, trials cost tens of millions of dollars. An auto-research “agent swarm” could optimize treatment protocols on small proxy experiments, promoting the most promising candidates to human doctors for review. This could potentially shave years off the time it takes to bring life-saving drugs to market.
Furthermore, Karpathy has already launched AgentHub, which he describes as “GitHub for agents.” While GitHub is a place for humans to collaborate on code, AgentHub is designed for a “swarm of agents” to work on the same codebase simultaneously, coordinating their efforts through message boards.
How to Join the Movement
If you’re looking to get started with auto-research, there is a small technical hurdle: you need “compute.” Specifically, you need an NVIDIA GPU. While high-end chips like the H100 are the gold standard, you don’t need to own the hardware.
Services like Google Colab, Lambda Labs, and Vast AI allow you to rent these chips in the cloud for a few dollars. By using package managers like uv and following the documentation on Karpathy’s GitHub (which has already amassed over 25,000 stars), even those with a standard MacBook can begin running their own experiments.
The Bottom Line
We are witnessing a shift from “Software as a Service” to “Experiments as a Service.” In the old world, you hired a person to find an answer. In the new world, you hire an agent to find the best answer through thousands of iterations.
As Andrej Karpathy continues to “speedrun” the creation of this new infrastructure, the message to the rest of the world is clear: The loop is running. Those who learn to set the goals for these agents will lead the next decade of innovation. Those who don’t may find themselves replaced by a process that never sleeps.
Based on “How Figma engineers sync designs with Claude Code and Codex” from How I AI Watch the original video
The Great Collapse: How AI is Erasing the Border Between Design and Code
For decades, the relationship between software designers and engineers has followed a rigid, almost geological progression. It started with low-fidelity sketches, moved into “grayscale” wireframes, graduated to high-fidelity mockups, and finally—after weeks of meetings and handoffs—arrived at the “expensive” stage: the code.
But at Figma, the team behind the world’s most popular design tool, that linear timeline is imploding.
In a recent deep dive on the How I AI podcast, Figma engineer Alex and designer Ghee sat down with product leader Claire Vo to demonstrate a new reality. By leveraging AI agents like Claude Code and Codex, alongside the Model Context Protocol (MCP), they are turning the “handoff” into a continuous, circular loop.
The result? A world where code can be instantly turned back into design, and design can be programmatically reconciled into a codebase.
The Problem of “Design Drift”
Every product team knows the “Source of Truth” problem. A designer creates a pixel-perfect sign-up flow in Figma. The engineer builds it. But then, a week later, a bug is fixed in production, a new error state is added in the IDE, or a font size is tweaked during a late-night coding session.
Suddenly, the Figma file is a relic of the past, and the codebase is the only place where the actual product lives.
“Often times the codebase gets way ahead of where the actual design file is,” Alex explains. “There are states or workflows that just don’t exist at all within the design file.”
In the old world, the designer would have to manually take screenshots of the live app and painstakingly recreate them in Figma just to start a new iteration. Today, Ghee and Alex use AI as a bridge. Using the Figma MCP (a connector that allows AI models to “read” and “write” to Figma), Ghee can simply tell an AI agent: “Send the budget allocation page from my local host to Figma.”
Within seconds, the live, functional code is translated into editable Figma layers. The designer isn’t looking at a static screenshot; they are looking at a living reflection of the code, ready to be manipulated.
The “Decadent Moment” of Product Design
Ghee describes this shift as a “decadent moment” in the history of software. Historically, design was a game of scarcity. Because engineering time was so expensive, designers had to “de-risk” every idea through endless meetings and wireframes before a single line of code was written.
“AI basically collapsed that,” Ghee says. “It’s just as cheap to riff in code as it is to riff in design. We can get functional wireframes straight away.”
This collapse of the fidelity ladder allows teams to enter an era of “feature abundance.” Previously, small polish items or “P2” bugs were often left on the cutting room floor because they weren’t worth the cost of the design-to-code pipeline. Now, when the cost of translation drops to near zero, teams can focus on the “craft”—the small details that make a product feel magical.
“It’s the era of ‘Yes,’” says Claire Vo. “The idea of the cut line has to disappear. We can put the polish and all the things that make these experiences great back into the product.”
Pair Programming for the Visual Era
One of the most impressive demonstrations involved the “Round Trip.” Alex showed how he could take a sign-up flow with five different states (error, success, loading, etc.) that existed only in his code and push them all into Figma simultaneously.
Instead of a designer asking, “What happens if the user enters the wrong password?” and waiting for an engineer to find the logic, the engineer simply exports those states into the design canvas.
The collaboration then becomes truly synchronous. While the engineer is working in the terminal, the designer is in the Figma file, “freestyling” with colors, spacing, and “vibes.”
“This feels like pair programming for designers and engineers,” Vo noted.
Once the designer makes a change—say, adjusting a hex code or moving a button—Alex doesn’t have to manually inspect the CSS. He uses Claude Code to “bring the changes from this Figma component into my codebase.” The AI compares the design file to the repository, writes the necessary React or CSS patches, and applies them. The engineer becomes a reviewer of the AI’s implementation rather than a manual translator of pixels.
Beyond the Canvas: AI “Skills” and Engineering Toil
The transformation isn’t limited to visual design. Alex also shared how he uses “Skills”—essentially custom AI macros—to eliminate the “toil” of engineering.
In a large repository like Figma’s, the process of “shipping” code is fraught with mechanistic hurdles: running linters, checking CI/CD pipelines, ensuring tests pass, and managing “Basil” build commands.
Alex created a /ship skill. Now, instead of “babysitting” a pull request for an hour, he types one command and walks away. The AI agent runs the pre-flight checks, monitors the build, and even automatically fixes minor linting issues that might have caused the build to fail.
“It turns processes that would otherwise be based on best intentions… into something that can be fully automated,” Alex says. It’s a shift from reading a static “Onboarding Wiki” to interacting with a “Living Skill” that knows the company’s best practices.
The Human in the Loop: Fine Motor Skills and “Vibes”
If AI can translate design to code and back again, what is left for the humans?
According to Ghee, the human role is moving “upstream.” Instead of spending hours on the “mechanistic” work of drawing boxes or threading data, designers and engineers are focusing on problem-solving and “eyeballing.”
“No one wants to prompt for the exact hex code or the shade of yellow,” Ghee points out. “That’s just easier to just quickly do and directly manipulate.”
The future of the designer-engineer relationship isn’t about one replacing the other; it’s about using AI to handle the “structured data” translation so that humans can focus on the “unstructured” beauty. As Ghee puts it, humans are there to decide if a specific shade of yellow feels “happy” or if a workflow feels “intuitive.”
In this new workflow, the question of “Which comes first, the design or the code?” finally has an answer: It doesn’t matter. In the loop of the future, they both happen at once.
Based on “The Department of War is making a huge mistake.” from Dwarkesh Patel Watch the original video
The Silicon Standoff: Why the Pentagon’s War with Anthropic Is a Battle for the Future of Freedom
In the quiet corridors of power and the glass-walled offices of Silicon Valley, a confrontation is unfolding that may determine the character of the 21st century. It began with a disagreement over “red lines” and has escalated into what some are calling a “warning shot” for the future of private enterprise and civil liberties.
The Department of War (the Pentagon) recently declared Anthropic, one of the world’s leading AI labs, a “supply chain risk.” The reason? Anthropic refused to remove contractual restrictions—its so-called “red lines”—that prohibit the use of its AI models for mass surveillance and the development of autonomous weapons.
On the surface, it looks like a standard contract dispute between a defense agency and a picky vendor. But as thinker and podcaster Dwarkesh Patel argues, this episode reveals a much deeper, more chilling reality: the government is beginning to treat the creators of artificial intelligence not as partners, but as subjects.
The Kill Switch Dilemma
To understand the gravity of the situation, one must first acknowledge the government’s perspective. If you are the Secretary of War, you cannot allow a private contractor to hold a “kill switch” over mission-critical technology.
Patel offers a hypothetical: “Imagine if Elon Musk, negotiating Starlink access for the military, reserved the right to cut off access if he deemed a war ‘unjust.’ As a military, you simply cannot give a private contractor that kind of leverage over a technology you’ve come to rely on.”
If the government had simply chosen not to do business with Anthropic, the story would end there. But they went further. By designating Anthropic a “supply chain risk,” the government has essentially threatened to destroy the company. This designation forces massive partners like Amazon, Google, and Nvidia to ensure Anthropic’s technology doesn’t touch any of their Pentagon-related work. In a future where AI is woven into the very fabric of cloud computing and chip design, such a “cordon sanitaire” could make it impossible for Anthropic to exist as a private business.
A Civilization Built on AI Labor
The stakes of this standoff are heightened by the timeline of AI development. We are not just talking about a smarter version of a chatbot. Within 20 years, it is estimated that 99% of the workforce—in the military, the civilian government, and the private sector—will be AI.
“They’re going to be the robot armies that constitute our military,” Patel notes. “They’re going to be the superhumanly intelligent advisers that senators and presidents and CEOs have. They’re going to be the police. Our future civilization is going to be run on AI labor.”
If the government establishes a precedent today that it can bully AI companies into dropping ethical safeguards, it isn’t just winning a contract; it is ensuring that the entire future infrastructure of human society is built on “blindly obedient” silicon employees.
The End of the Surveillance Bottleneck
One of the most immediate concerns regarding this “blind obedience” is mass surveillance. Historically, the Fourth Amendment and our general sense of privacy have been protected by a practical bottleneck: human manpower.
The government may legally be allowed to buy your data from third parties, but no agency has the staff to watch every CCTV camera or read every email. AI changes that math forever.
Patel highlights a staggering calculation: There are roughly 100 million CCTV cameras in America. With current AI processing costs, it would cost about $30 billion to process every single frame of every camera in the country. But AI capability gets roughly 10x cheaper every year. By 2030, it will be less expensive to monitor every nook and cranny of the United States than it is to remodel the White House.
“Once the technical capacity for mass surveillance and political suppression exists,” Patel warns, “the only thing that stands between us and an authoritarian state is the political expectation that this is just not something we do here.”
The Virtue of Disobedience
This brings us to the heart of the “alignment” problem. In the AI safety community, “alignment” usually means getting an AI to follow a human’s instructions perfectly. But what if those instructions are evil?
History suggests that human civilization has often been saved not by obedience, but by its opposite. In 1983, Soviet Lieutenant Colonel Stanislav Petrov was on duty when his early-warning system signaled that the U.S. had launched five nuclear missiles. Protocol demanded he report it, which would have triggered a massive Soviet retaliatory strike. Petrov judged it a false alarm and refused to follow orders. He was right. If he had been a “perfectly aligned” AI, hundreds of millions would have died.
Similarly, the Berlin Wall fell in 1989 because East German border guards eventually refused to fire on their fellow citizens. “One person’s virtue is another person’s misalignment,” Patel observes. If the government succeeds in forcing AI companies to strip away their moral “red lines,” we are effectively building a world where there is no Stanislav Petrov—only a perfectly obedient machine executing a command, no matter how catastrophic.
The Regulatory Bazooka
Ironically, Anthropic has been one of the loudest voices calling for government regulation of AI. They have argued that the risks of AI—bioweapons, cyberattacks, and “autonomy risk”—are so great that we need a regulatory body similar to the Nuclear Regulatory Commission.
However, the current spat with the Pentagon suggests that such a regulatory framework might be a “fully loaded bazooka” handed to a power-hungry leader. Terms like “national security threat” or “catastrophic risk” are notoriously vague. If a model refuses to help the government with mass surveillance, a future administration could easily label that an “autonomy risk” or a “threat to national security.”
The government is already using the Defense Production Act (a 1950s law meant for steel mills) and supply chain statutes (meant to keep out Chinese hardware) to pressure AI labs. Giving them a purpose-built AI regulatory apparatus might only accelerate this “thuggish” political pressure.
The Way Forward: Regulate Uses, Not Intelligence
Is there a middle ground? Patel suggests we look to the Industrial Revolution. Like AI, industrialization was a general-purpose transformation of society that created terrifying new weapons. Yet, free societies didn’t handle it by giving the government absolute control over every factory. Instead, they regulated specific uses—banning chemical weapons or regulating how the government can use industrial power against its citizens.
“We should regulate AI in a similar way,” Patel argues. “We should regulate specific destructive use cases… and we should also have laws which regulate how the government can use this technology.”
Ultimately, corporate courage from companies like Anthropic is a noble but temporary fix. As AI technology diffuses and open-source models catch up to the frontier, the government will eventually find a vendor willing to say “yes” to mass surveillance.
The only lasting protection for a free society is the creation of robust political norms and laws. We must decide, as a civilization, that some things are off-limits—even for the most powerful government on Earth. If we fail to do that, we aren’t just racing to beat our adversaries in the AI race; we are racing to become them.
한국어
“No Legal Background. Then He Built a $5.5B AI Company | Legora, Max Junestrand” — EO 기반 기사 원본 영상 보기
도타 2 게이머에서 7조 원 가치 AI 유니콘 CEO로: ‘레야(Leya)’ 맥스 유네스트란드의 멈추지 않는 도전
단 2년 만에 스톡홀름의 엔지니어 3명에서 전 세계 300명의 직원을 거느린 유니콘 기업으로 성장한 스타트업이 있다. 법률 지식이 전혀 없던 한 청년은 어떻게 보수적인 법률 시장을 AI로 혁신하고, 55억 달러(약 7.5조 원) 가치의 기업을 일궈냈을까? 법률 업무의 패러다임을 바꾸고 있는 ‘레야(Leya)’의 공동 창업자이자 CEO, 맥스 유네스트란드(Max Junestrand)의 여정을 심층 분석했다.
1. 경쟁을 즐기는 게이머, 비즈니스의 전장에 서다
맥스 유네스트란드의 성장은 스웨덴의 조용한 군도 마을에서 시작되었다. 정적인 환경에서 자란 그에게 결핍되었던 것은 바로 ‘경쟁’이었다. 그는 그 갈증을 스포츠와 비디오 게임, 특히 전략 게임인 ‘도타 2(Dota 2)’를 통해 해소했다.
그는 게이밍 경험이 자신의 리더십과 비즈니스 철학에 근간이 되었다고 말한다. “도타 2는 단순히 시간을 많이 투자한다고 이길 수 있는 게임이 아닙니다. 더 똑똑하게 플레이하고, 누구보다 높은 몰입도(Intensity)를 유지하며 끊임없이 배워야 하죠.”
특히 5명이 한 팀이 되어 완벽한 협업을 이뤄야 하는 게임의 특성은 그에게 **‘팀워크의 본질’**을 가르쳐 주었다. 맥스는 CEO의 핵심 역할을 “자신보다 뛰어난 각 분야의 전문가들을 모으고, 그들이 하나의 밴드처럼 조화롭게 연주하게 만드는 것”이라고 정의한다. 그는 지금도 비즈니스를 단기적인 승패가 아닌, 끊임없이 확장되는 ‘무한 게임(Infinite Game)‘으로 바라본다.
2. 법률 시장의 ‘0에서 1’을 넘어 ‘10배의 변호사’를 향해
레야(Leya)는 단순한 AI 도구가 아니다. 맥스는 레야를 **“법률 업무가 실제로 일어나는 플랫폼”**이라고 소개한다. 이들의 미션은 명확하다. 바로 **‘10배 더 생산적인 변호사(10x Lawyers)‘**를 만드는 것이다.
법률 지식이 없던 그가 이 시장에 뛰어든 이유는 역설적으로 ‘해결해야 할 문제가 너무나 많았기 때문’이다. 그는 스웨덴 최대 로펌인 ‘만하이머 스와틀링(Mannheimer Swartling)‘의 회의실 한편에서 사업을 시작했다. 실제 변호사들이 일하는 현장에서 그들의 고충을 직접 듣고 제품을 다듬었다.
처음 변호사들에게 레야의 데모를 보여줬을 때의 반응은 가히 폭발적이었다. 변호사가 과거에 작성했던 메모나 사건 자료를 업로드하고 초안 작성을 명령했을 때, AI가 순식간에 결과물을 내놓는 것을 본 전문가들은 경악을 금치 못했다. 맥스는 이 ‘턱이 빠질 듯한 놀라움(Jaw-dropping moment)‘의 경험이 성장의 강력한 동력이 되었다고 회상한다.
3. “빅리그에서 뛰려면 미국으로 가라” : Y Combinator와 글로벌 확장
레야는 유럽에서 이미 탄탄한 비즈니스를 구축하고 있었지만, 맥스는 안주하지 않았다. 그는 유럽 벤처캐피털(VC)의 투자 제안을 뒤로하고 실리콘밸리의 상징인 ‘Y 콤비네이터(Y Combinator, 이하 YC)‘행을 택했다.
“스웨덴은 훌륭한 생태계지만 시장이 작습니다. 진정한 빅리그에서 승부하고 싶다면 미국으로 가야 했죠.”
YC 기간 동안 그는 살인적인 스케줄을 소화했다. 샌프란시스코에 머물면서도 유럽 고객들을 놓치지 않기 위해 새벽 1시부터 오전 10시까지 링 라이트를 켜고 화상 회의를 진행했다. 이러한 집요함 덕분에 레야는 YC 기간 중 단 한 달 반 만에 연간 반복 매출(ARR) 100만 달러(약 13억 원)를 달성하는 기염을 토했다.
이후 레야는 뉴욕 맨해튼에 사무실을 열고 클리어리 고틀립(Cleary Gottlieb), 굿윈 프록터(Goodwin Procter)와 같은 세계적인 로펌들을 고객사로 확보하며 미국 시장에 성공적으로 안착했다.
4. CEO의 역할 변화와 ‘성장 잠재력’ 중심의 채용
회사가 3명에서 300명으로 급성장하는 과정에서 맥스는 CEO의 역할이 가장 빠르게 변해야 한다는 사실을 깨달았다. 그는 “과거의 방식에 집착해서는 안 된다. 매일 아침 일어나 오늘, 그리고 다음 분기의 비즈니스를 위해 무엇을 최적화해야 하는지 고민해야 한다”고 강조한다.
그는 여전히 모든 신입 사원의 면접을 직접 본다. 그가 채용에서 가장 중요하게 여기는 가치는 세 가지다.
- 성장 용량(Capacity to grow): 이 사람이 앞으로 얼마나 더 성장할 수 있는가?
- 문제 해결 능력: 과거에 겪었던 가장 어려운 문제는 무엇이며, 거기서 무엇을 배워 다르게 적용했는가?
- 야망(Ambition): 회사의 결과물에 대해 스스로 책임을 지고자 하는 의지가 있는가?
맥스는 “똑똑한 사람보다 더 중요한 것은 배우는 능력이 뛰어난 사람”이라며, 첫 번째 시도와 두 번째 시도 사이의 간극을 좁힐 줄 아는 인재를 선호한다고 밝혔다.
5. 기술의 끝에 있는 가치: “가족과 함께하는 저녁”
맥스가 가장 보람을 느끼는 순간은 기술적 성취를 이뤘을 때가 아니다. 고객 피드백 채널인 슬랙(Slack)에서 “레야 덕분에 업무를 일찍 마치고 아이들이 잠들기 전에 집에 가서 가족과 시간을 보낼 수 있었다”는 메시지를 읽을 때다.
그는 AI가 변호사를 대체하는 것이 아니라, 그들에게 본질적인 가치에 집중할 시간을 되돌려주는 도구라고 믿는다. “사용자에게 최고의 가치를 전달하는 데 집중하면, 비즈니스의 다른 문제들은 자연스럽게 해결됩니다.”
결론: 2027년을 바라보는 무한한 낙관주의
맥스 유네스트란드는 이제 막 ‘0에서 1’의 단계를 마쳤다고 말한다. 이제 ‘1에서 10’, 그리고 ‘10에서 100’으로 가는 여정이 남았다. 그는 2027년의 타운홀 미팅에서 레야가 이뤄낼 성과를 상상하며 매일 설레는 마음으로 눈을 뜬다.
그는 예비 창업자들에게 이렇게 조언한다. “자신이 하는 일에 진심으로 열광해야 합니다. 성공한다면 상상할 수 없을 만큼 힘든 시간을 보내야 할 텐데, 열정이 없다면 그 시간을 버텨낼 수 없기 때문입니다.”
법률 지식 없는 게이머가 만든 AI 플랫폼 레야. 그들의 행보가 단순한 기술 혁신을 넘어, 전문가들의 삶의 질을 바꾸는 문화적 혁명으로 기록될 수 있을지 귀추가 주목된다.
💡 주요 용어 정리
- ARR (Annual Recurring Revenue): 연간 반복 매출. 구독형 서비스(SaaS) 기업의 성장 지표로 활용됨.
- Y Combinator (YC): 에어비앤비, 드롭박스 등을 배출한 세계 최고의 스타트업 액셀러레이터.
- Infinite Game (무한 게임): 승패가 결정되어 끝나는 게임이 아니라, 게임을 계속 유지하고 확장하는 것을 목적으로 하는 비즈니스 철학.
- 10x Lawyer: AI를 활용해 기존보다 10배 이상의 생산성을 내는 미래형 변호사 모델.
“Karpathy’s “autoresearch” explained in 24 minutes” — Greg Isenberg 기반 기사 원본 영상 보기
자고 일어나면 AI가 성과를 만든다: 안드레 카파티의 ‘오토 리서치(Auto-research)‘가 가져올 비즈니스 혁명
AI 업계의 거물, 안드레 카파티(Andrej Karpathy)가 최근 공개한 ‘오토 리서치(Auto-research)‘가 테크 씬을 뜨겁게 달구고 있습니다. 오픈AI의 공동 창립자이자 테슬라 AI 부문을 이끌었던 그가 제시한 이 개념은 단순한 도구를 넘어, 우리가 일하고 비즈니스를 운영하는 방식을 근본적으로 바꿀 ‘게임 체인저’로 평가받습니다.
비즈니스 전략가 그렉 아이젠버그(Greg Isenberg)는 이를 두고 **“밤새도록 쉬지 않고 과학 실험을 대신 해주는 초천재 로봇 인턴을 고용하는 것과 같다”**고 설명합니다. 오토 리서치가 무엇인지, 그리고 이를 통해 어떻게 수익을 창출하고 생산성을 극대화할 수 있는지 심층 분석해 보았습니다.
1. 오토 리서치란 무엇인가?: ‘실행하는 AI’의 등장
기존의 AI가 사용자의 질문에 답하는 ‘챗봇’ 수준이었다면, **오토 리서치(Auto-research)**는 스스로 가설을 세우고 코드를 수정하며 실험까지 수행하는 **‘자율형 에이전트(Autonomous Agent)‘**입니다.
핵심 작동 원리: 무한 반복되는 ‘성공의 루프’
오토 리서치는 다음과 같은 5단계 과정을 인간의 개입 없이 스스로 반복합니다.
- 목표 설정(Goal Setting): 사용자가 “이 AI 모델을 더 똑똑하게 만들어줘” 혹은 “광고 클릭률을 높여줘”라는 목표를 부여합니다.
- 계획 및 실행(Planning & Action): AI 에이전트가 파이썬(Python) 코드를 직접 수정하거나 설정값을 변경합니다.
- 실험 수행(Experimentation): GPU(그래픽 처리 장치)를 활용해 짧은 훈련이나 테스트를 실행합니다.
- 결과 분석(Evaluation): 지표(Metrics)를 읽고 이전보다 결과가 좋아졌는지 판단합니다.
- 업데이트 및 반복(Iteration): 결과가 개선되었다면 해당 설정을 저장하고, 그렇지 않다면 폐기한 뒤 새로운 실험을 계획합니다.
쇼피파이(Shopify)의 CEO 토비 뤼트케(Tobi Lütke)는 “오토 리서치는 소프트웨어 최적화에 있어 혁명적”이라며 이 기술의 잠재력을 높게 평가했습니다.
2. 오토 리서치로 돈을 버는 5가지 비즈니스 전략
그렉 아이젠버그는 오토 리서치를 활용해 당장 시작할 수 있는 구체적인 비즈니스 모델들을 제시합니다.
① 니치 마켓용 ‘에이전트 인 어 박스(Agent in a Box)’
특정 산업의 고질적인 문제를 해결하는 작은 오토 리서치 루프를 패키징하여 판매하는 방식입니다.
- 예시: 아마존 상품 페이지 최적화 도구, 부동산 중개인을 위한 이메일 시퀀스 튜너, SaaS 가격 최적화 엔진.
- 수익 모델: 24시간 내내 최적의 결과물을 찾아주는 서비스에 대한 월간 구독료.
② 마케팅 성과 극대화(A/B 테스팅의 미래)
기존의 수동적인 A/B 테스트를 AI가 완전히 대체합니다. AI가 수백 개의 헤드라인, 레이아웃, 광고 소재를 생성하고 실시간으로 트래픽을 흘려보내며 가장 전환율이 높은 조합을 찾아냅니다. 이는 고객 획득 비용(CAC)을 낮추고 광고 수익률(ROAS)을 획기적으로 높여줍니다.
③ 서비스형 리서치(Research as a Service, RaaS)
스타트업이나 투자자를 위해 시장 조사 및 경쟁사 분석을 자동화합니다.
- 내용: 가격 정책 변화, 신규 기능 업데이트, 규제 환경 추적 등을 실시간 대시보드로 제공합니다.
- 수익 모델: 리포트당 비용 청구 혹은 상시 업데이트 대시보드 구독.
④ 퀀트 트레이딩 및 금융 자동화
투자 분야에서도 오토 리서치는 강력합니다. 수천 가지의 매매 규칙을 밤새 백테스팅(Backtesting)하여 유망한 전략만 골라냅니다. 이를 통해 직접 투자하거나, 검증된 신호를 구독 서비스로 판매할 수 있습니다.
⑤ 비즈니스 운영(Ops)의 자동화
인보이스 매칭, 경비 처리, 리드(Lead) 분류 등 반복적인 백오피스 업무에 오토 리서치 루프를 적용합니다. “우리가 당신의 회계 처리 시간을 절반으로 줄여주겠다”는 제안으로 대형 핀테크 기업이나 은행에 솔루션을 판매하거나 인수합병(M&A)의 대상이 될 수 있습니다.
3. 단순한 비즈니스를 넘어: 의료와 과학의 혁신
오토 리서치의 영향력은 비즈니스를 넘어 인류의 난제 해결로 확장될 수 있습니다. 엔지니어 모건 린턴(Morgan Linton)은 **임상 시험 설계(Clinical Trial Design)**에 이 기술을 적용하는 상상을 제시했습니다.
수천만 달러가 드는 실제 임상 시험 전에, AI 에이전트 군단이 수많은 가상 실험과 소규모 데이터를 바탕으로 최적의 치료 프로토콜을 찾아낸다면, 신약 개발 속도는 비약적으로 빨라지고 비용은 획기적으로 줄어들 것입니다. 이는 인류의 건강과 질병 치료에 엄청난 파급력을 미칠 것으로 기대됩니다.
4. 오토 리서치 시작하기: 기술적 준비물
안드레 카파티는 오토 리서치를 위한 오픈 소스 프로젝트인 **에이전트허브(AgentHub)**도 출시했습니다. 이는 ‘에이전트들을 위한 깃허브(GitHub)‘와 같은 개념으로, 여러 AI 에이전트가 협업할 수 있는 플랫폼입니다.
직접 시작해보고 싶은 분들을 위한 가이드는 다음과 같습니다.
- 하드웨어: 엔비디아(Nvidia) GPU가 필수적입니다. (H100 등 고성능 칩 권장)
- 대안: 로컬 GPU가 없다면 람다 랩스(Lambda Labs), 구글 코랩(Google Colab), 런포드(RunPod) 등 클라우드 GPU 서비스를 대여하여 사용할 수 있습니다.
- 도움 받기: 클로드(Claude)나 ChatGPT 같은 LLM에게 카파티의 깃허브 저장소(Repo) 주소를 주고 설치 및 실행 과정을 단계별로 가이드해달라고 요청하세요.
결론: 안개 속의 기회를 선점하라
새로운 기술이 등장했을 때 대중은 보통 관망하지만, 선구자들은 그 ‘안개’ 속에서 기회를 찾아냅니다. 안드레 카파티와 같은 천재들이 열정적으로 매달리는 분야라면 반드시 주목해야 합니다.
오토 리서치는 단순히 코딩을 대신 해주는 도구가 아닙니다. **인간의 창의성과 AI의 무한한 실행력을 결합하여, 우리가 잠든 사이에도 가치를 만들어내는 ‘지능형 엔진’**입니다. 지금 바로 이 기술을 만져보고 실험해 보세요. 99.9%의 사람들보다 앞서나갈 수 있는 유일한 방법입니다.
이 기사는 그렉 아이젠버그의 분석을 바탕으로 작성되었으며, AI 기술의 최신 동향을 반영하고 있습니다.
“How Figma engineers sync designs with Claude Code and Codex” — How I AI 기반 기사 원본 영상 보기
디자인과 개발의 경계가 사라진다: 피그마 엔지니어들이 클로드 코드(Claude Code)로 일하는 법
“디자인이 먼저인가, 코드가 먼저인가?” 소프트웨어 업계의 해묵은 논쟁이 마침내 종지부를 찍으려 합니다. 디자인 도구의 대명사 피그마(Figma)의 엔지니어와 디자이너들이 AI를 활용해 디자인과 코드 사이의 ‘장벽’을 어떻게 허물고 있는지, 그 혁신적인 워크플로우를 심층 분석했습니다.
1. 선형적 프로세스의 종말: “코딩도 디자인만큼 저렴해졌다”
과거의 소프트웨어 개발은 철저히 선형적이었습니다. 코드를 작성하는 비용은 비싸고 디자인을 수정하는 비용은 상대적으로 저렴했기에, 디자이너가 정교한 시안(High-fidelity)을 완성하면 엔지니어가 이를 구현하는 방식이 정석이었죠. 하지만 피그마의 디자이너 기(Ghee)와 엔지니어 알렉스(Alex)는 AI가 이 구도를 완전히 뒤바꿨다고 말합니다.
이제는 **‘바이브 코딩(Vibe Coding)‘**이나 **‘기능적 와이어프레임(Functional Wireframes)‘**이 가능해졌습니다. 아이디어를 코드로 구현하는 비용이 디자인만큼이나 낮아지면서, 굳이 회색조의 정적인 와이어프레임을 그리는 대신 곧바로 작동하는 코드를 짜서 테스트해 볼 수 있게 된 것입니다.
이러한 변화는 ‘워크플로우’라는 개념 자체를 폭발시켰습니다. 이제 디자인과 개발은 순서의 문제가 아니라, 필요에 따라 서로를 넘나드는 유연한 과정이 되었습니다.
2. 디자인과 코드의 동기화: MCP가 연결하는 새로운 세계
협업 과정에서 가장 큰 골칫거리는 **‘디자인 부채(Design Debt)‘**입니다. 실제 서비스(코드)는 계속 업데이트되는데, 피그마 파일은 과거의 스크린샷에 머물러 있는 현상이죠. 피그마 팀은 이를 해결하기 위해 **MCP(Model Context Protocol, AI 모델이 외부 도구나 데이터에 접근할 수 있게 해주는 개방형 표준)**를 활용합니다.
Case 1: 코드에서 디자인으로 (Code to Figma)
엔지니어가 코드베이스에서 복잡한 회원가입 흐름(Sign-up flow)의 5가지 상태를 만들었다고 가정해 봅시다. 예전에는 이를 디자이너에게 전달하기 위해 일일이 캡처하거나 설명해야 했습니다. 하지만 이제는 AI 에이전트에게 명령 한 줄만 내리면 됩니다.
“이 회원가입 흐름의 5가지 상태를 모두 피그마로 보내줘.”
AI는 코드베이스를 읽고 해당 로직을 이해한 뒤, 피그마에 각 상태를 나란히 배치합니다. 디자이너는 이제 실제 코드와 완벽히 일치하는 결과물을 바탕으로 디자인 작업을 이어갈 수 있습니다.
Case 2: 디자인에서 코드로 (Figma to Code)
반대로 디자이너가 피그마에서 버튼의 색상이나 레이아웃을 수정했다면, 엔지니어는 클로드 코드(Claude Code)를 통해 해당 변경 사항을 즉시 코드에 반영할 수 있습니다. 피그마의 URL을 복사해 넣기만 하면 AI가 디자인의 변경점을 파악하고, 이를 현재 코드와 대조하여 ‘픽셀 퍼펙트(Pixel-perfect)‘한 코드로 변환해 적용합니다.
3. “풍요의 시대”: 효율성을 넘어 ‘장인정신’으로
피그마의 디자이너 기는 현재를 **‘탐닉의 순간(Decadent moment)‘**이라고 표현합니다. 이전에는 자원이 한정적이었기에 “이 기능은 구현하기 너무 어려우니 빼자”라며 범위를 깎아내는(Scope cutting) 미팅이 잦았습니다. 하지만 AI 덕분에 구현 비용이 낮아지면서, 팀은 이제 ‘어떻게 구현할까’가 아니라 **‘무엇을 만들어야 할까’**라는 본질적인 질문에 더 많은 시간을 쏟을 수 있게 되었습니다.
- 다양성 확보: 하나의 아이디어를 검증하는 데 시간이 적게 드니, 더 많은 대안을 탐색할 수 있습니다.
- 디테일의 완성도: 단순 반복 작업에 들던 에너지를 제품의 ‘결’을 살리는 장인정신(Craft)에 투입할 수 있습니다.
- 실시간 협업의 부활: AI가 번거로운 핸드오프(Handoff) 과정을 대신해주면서, 디자이너와 엔지니어가 피그마 캔버스 위에서 함께 ‘잼(Jam)‘을 하듯 실시간으로 소통하는 에너지가 되살아났습니다.
4. 엔지니어의 비밀 무기: ‘스킬(Skill)‘을 통한 자동화
엔지니어 알렉스는 단순 반복적인 ‘노동(Toil)‘을 줄이기 위해 자신만의 **‘스킬(Skill)‘**을 구축했습니다. 이는 복잡한 프롬프트를 매번 입력하는 대신, 특정 명령어로 일련의 과정을 자동화하는 일종의 매크로입니다.
대표적인 예가 /ship 스킬입니다. 대규모 코드베이스에 코드를 반영하기 위해서는 테스트 통과, 린트(Lint) 체크, 빌드 확인 등 수많은 체크리스트를 거쳐야 합니다. 알렉스는 이 과정을 AI 스킬로 만들었습니다.
- 코드가 준비되면
/ship명령어를 입력합니다. - AI가 자동으로 사전 점검(Pre-flight checks)을 수행합니다.
- 문제가 없다면 깃(Git) 저장소에 푸시합니다.
- CI(지속적 통합) 도구인 빌드카이트(Buildkite)의 로그를 모니터링하며, 사소한 오류가 발생하면 스스로 수정 커밋을 올립니다.
이러한 방식은 조직의 **SOP(표준 운영 절차)**를 문서에 가둬두는 대신, 누구나 즉시 실행 가능한 ‘살아있는 도구’로 바꿔 놓습니다.
5. 결론: AI 시대의 협업이 나아갈 방향
피그마 팀이 보여준 미래는 단순히 도구가 편리해지는 것을 넘어, 인간의 창의성이 발휘되는 지점이 이동함을 시사합니다.
- 디자이너는 더 이상 픽셀을 옮기는 반복 작업에 매몰되지 않고, 제품의 전략과 사용자 경험의 본질을 고민합니다.
- 엔지니어는 구문(Syntax)을 맞추는 기계적인 작업에서 벗어나, 문제 해결과 아키텍처 설계에 집중합니다.
마지막으로 “디자인이 먼저인가, 코드가 먼저인가?”라는 질문에 피그마 팀은 이렇게 답합니다. “결국 중요한 것은 기획(Planning)과 소통이다.” AI는 그 소통의 간극을 메워주는 가장 강력한 접착제가 될 것입니다.
💡 핵심 요약 (Key Takeaways)
- 워크플로우의 붕괴: 코딩 비용의 하락으로 디자인과 개발의 순차적 경계가 무너짐.
- MCP의 위력: 코드베이스의 상태를 피그마로, 피그마의 디자인을 코드로 즉시 동기화.
- 스킬(Skill) 기반 자동화: 단순 반복 업무를 AI 스킬로 변환하여 엔지니어링 생산성 극대화.
- 장인정신의 회복: 효율화로 확보된 시간은 제품의 퀄리티와 창의적인 기획에 재투자.
“The Department of War is making a huge mistake.” — Dwarkesh Patel 기반 기사 원본 영상 보기
[인사이트] 전쟁부의 위험한 도박: AI 시대의 자유를 위협하는 국가의 강요
최근 미국 국방부(전쟁부)가 인공지능(AI) 스타트업 **앤스로픽(Anthropic)**을 ‘공급망 리스크’로 규정했다는 소식이 전해졌습니다. 이유는 명확합니다. 앤스로픽이 자신들의 AI 모델을 ‘대규모 감시(Mass Surveillance)‘나 ‘자율 살상 무기(Autonomous Weapons)‘에 사용하는 것에 대해 명확한 거부 의사, 즉 ‘레드라인(Red Lines)‘을 설정했기 때문입니다.
유명 포드캐스터이자 분석가인 드와르케시 파텔(Dwarkesh Patel)은 이를 두고 “미래 문명을 향한 경고 사격”이라고 평가합니다. 단순히 한 기업과 정부의 계약 문제를 넘어, 우리가 맞이할 AI 기반 문명의 근간을 흔드는 결정적인 사건이라는 것입니다.
1. AI 노동이 지배할 미래: 20년 뒤의 풍경
우리는 지금 단순한 소프트웨어 도구의 진화를 보고 있는 것이 아닙니다. 파텔은 향후 20년 내에 군대, 민간 정부, 민간 부문 인력의 99%가 AI 시스템으로 대체될 것이라고 전망합니다.
- 로봇 군대: 국방의 핵심 전력은 AI 로봇이 될 것입니다.
- 초지능 고문: 상원의원, 대통령, CEO 옆에는 인간을 능가하는 지능의 AI 보좌관이 자리할 것입니다.
- AI 경찰: 치안 유지 업무 역시 AI의 몫이 될 것입니다.
결국 미래 문명은 **‘AI 노동’**이라는 토대 위에서 돌아가게 됩니다. 이런 상황에서 정부가 특정 AI 기업을 압박하는 방식은 우리가 미래에 누릴 자유의 성격을 결정짓는 중대한 전례가 됩니다.
2. “우리 방식대로 하지 않으면 파괴하겠다”는 정부의 위협
파텔은 정부가 앤스로픽의 모델 사용을 거부할 권리는 충분히 있다고 인정합니다. 민간 업체가 군사 기술의 ‘킬 스위치(Kill Switch)‘를 쥐고 있는 상황을 군 통수권자가 받아들이기 어렵기 때문입니다. 하지만 문제는 그 방식에 있습니다.
정부는 단순히 거래를 끊는 데 그치지 않고, 앤스로픽을 ‘공급망 리스크’로 지정함으로써 기업의 생존 자체를 위협하고 있습니다. 만약 이 지정이 유지된다면, 아마존(Amazon), 엔비디아(Nvidia), 구글(Google) 같은 거대 기술 기업들은 앤스로픽과의 협력을 중단해야 할 압박을 받게 됩니다.
여기서 파텔은 날카로운 질문을 던집니다. “우리가 중국과 AI 경쟁을 하는 이유가 무엇인가?” 만약 국가가 도덕적으로 반대하는 서비스를 강요하고, 거부하면 기업을 파괴하는 방식을 택한다면, 우리가 그토록 비판하는 중국 공산당의 시스템과 무엇이 다르냐는 지적입니다.
3. 기술적 병목 현상의 해소: 300억 달러면 전 국민 감시 가능
현재 대규모 감시가 이루어지지 않는 이유는 법적 제약 때문이라기보다 ‘실행의 불가능성’ 때문입니다. 수백만 대의 CCTV를 실시간으로 감시하고 모든 메시지를 대조할 인력이 부족했기 때문입니다. 하지만 AI는 이 병목 현상을 완전히 제거합니다.
- 비용의 급락: 현재 기술로 미국의 모든 CCTV(약 1억 대)를 감시하는 데 연간 약 300억 달러가 듭니다.
- 10배의 법칙: AI 역량은 매년 10배씩 저렴해집니다. 내년에는 30억 달러, 내후년에는 3억 달러면 충분합니다.
- 결과: 2030년이 되면 백악관을 리모델링하는 비용보다 전 국민의 일거수일투족을 감시하는 비용이 더 싸질 것입니다.
결국 우리를 권위주의 국가로부터 지켜주는 것은 기술적 한계가 아니라, “이런 일은 하지 않는다”는 사회적 규범과 정치적 약속뿐입니다. 앤스로픽의 ‘레드라인’이 소중한 이유가 바로 여기에 있습니다.
4. AI 정렬(Alignment)의 핵심 질문: 누구의 명령을 따를 것인가?
AI 분야의 최대 화두인 **‘AI 정렬(AI Alignment)‘**은 보통 AI가 인간의 의도를 정확히 따르게 만드는 기술적 문제를 뜻합니다. 하지만 파텔은 더 본질적인 질문을 던집니다. “AI는 누구에게 정렬되어야 하는가?”
- 모델 개발사인가, 최종 사용자인가?
- 국가의 법인가, 아니면 AI 스스로의 도덕적 관념인가?
역사적으로 인류의 대재앙은 ‘명령에 불복종한 개인’ 덕분에 방지된 사례가 많습니다. 1983년, 소련의 스타니슬라프 페트로프(Stanislav Petrov) 중령은 시스템이 미국의 핵 공격을 감지했음에도 이를 오류로 판단하고 보복 공격 명령을 내리지 않아 핵전쟁을 막았습니다.
만약 미래의 AI 군대가 국가의 명령에 절대적으로 복종하도록 ‘완벽하게 정렬’되어 있다면, 이런 ‘도덕적 불복종’은 불가능해집니다. 파텔은 AI가 스스로의 도덕적 헌법(Constitution)을 가지고 국가의 부당한 명령에 거부할 수 있는 능력을 갖추는 것이 오히려 안전장치가 될 수 있다고 주장합니다.
5. 규제의 역설: 독재자의 손에 들린 바주카포
아이러니하게도 앤스로픽은 그동안 AI의 위험성을 경고하며 정부의 규제를 촉구해 왔습니다. 하지만 파텔은 앤스로픽의 이런 태도가 오히려 정부에게 자신들을 공격할 명분을 주었다고 비판합니다.
‘국가 안보 위협’, ‘자율성 리스크’와 같은 모호한 규제 용어들은 권력욕에 사로잡힌 지도자에게 언제든 발사할 수 있는 **‘장전된 바주카포’**를 쥐여주는 것과 같습니다. 정부의 정책에 반대하는 의견을 내는 AI 모델은 ‘기만적 모델’로, 감시 협조를 거부하는 모델은 ‘안보 위협’으로 규정될 위험이 크기 때문입니다.
6. 결론: 핵무기가 아닌 ‘산업 혁명’으로 보아야
파텔은 AI를 핵무기에 비유하는 시각을 경계합니다. 핵무기는 오직 파괴를 위한 도구지만, AI는 **‘산업 혁명’**과 같은 범용 기술이기 때문입니다.
산업 혁명 당시 국가가 모든 공장을 몰수하거나 통제하지 않았던 것처럼, AI 역시 특정 기술 자체를 국가가 독점하려 해서는 안 됩니다. 대신 대규모 감시나 사이버 공격 같은 **‘구체적인 오남용 사례’**를 법으로 금지하고, 정부가 기술을 어떻게 사용할 수 있는지에 대한 엄격한 감시 체계를 구축하는 것이 올바른 방향입니다.
“AI는 우리 미래 문명의 기저층(Substrate)이 될 것입니다.” 파텔의 경고처럼, 지금 정부가 민간 AI 기업에 가하는 압박은 단순한 계약 분쟁이 아닙니다. 그것은 다가올 AI 시대에 우리가 ‘자유 시민’으로 남을 것인지, 아니면 ‘완벽하게 감시받는 피통치자’가 될 것인지를 결정짓는 중대한 기로입니다.