마누스 AI(Manus AI)가 AI 업계에서 폭발적인 관심을 받으며 "제2의 DeepSeek 순간"으로 평가받고 있습니다. 중국의 AI 스타트업 Monica.im이 개발한 이 기술은 기존 챗봇을 넘어 자율적으로 복잡한 작업을 수행하는 "완전 자동화 AI 에이전트"로 소개되었습니다. 하지만 과연 마누스 AI가 마케팅에서 주장하는 혁신적인 성능을 실제로 제공하는지, 그리고 OpenAI의 Deep Research나 다른 AI 도구들과 비교했을 때 어떤 차별점을 가지고 있는지 함께 살펴보겠습니다.
마누스 AI의 기술적 기반과 특징
마누스 AI는 단일 AI 모델이 아닌 여러 독립적인 AI 모델이 협력하여 작업을 수행하는 다중 에이전트 아키텍처를 채택하고 있습니다. 이 시스템은 Claude Sonnet 3.5와 post-trained Qwen과 같은 기존 상용 LLM을 기반으로 구축되었으며, 자체 LLM을 개발하기보다는 이미 검증된 모델들을 효과적으로 통합하는 방식을 취하고 있습니다. 이러한 접근법은 DeepSeek이 자체 모델을 개발한 것과는 대조적입니다.
마누스 AI는 다음과 같은 주요 기능을 제공합니다:
- 언어 및 추론 모델을 활용한 사용자 요청 분석
- 작업 수행을 위한 단계 계획
- 브라우저, 검색 엔진, 파일 편집기, 터미널 등에 접근
- 파일 분석, 코드 작성 및 실행, 웹 스크래핑 등 다양한 작업 수행

다중 에이전트 시스템의 구조
마누스 AI의 핵심 기술적 특징 중 하나는 **다중 에이전트 시스템(Multi-agent system)**입니다. 일반적인 AI 모델이 하나의 중앙 모델이 모든 질문과 요청을 처리하는 방식인 반면, 마누스 AI는 여러 개의 독립적인 AI 에이전트가 각자의 역할을 수행하며 협력하여 더 나은 결과를 도출하는 방식을 채택했습니다.
이러한 접근 방식은 복잡한 작업을 더 효율적으로 처리할 수 있게 해주며, 각 에이전트가 특화된 영역에서 최적의 성능을 발휘할 수 있도록 합니다. 또한 마누스 AI는 멀티모달 상호작용, 외부 도구 통합, 비동기 클라우드 처리, 메모리 기능 등의 특성을 갖추고 있어 다양한 종류의 작업을 처리할 수 있는 유연성을 제공합니다.
마누스 AI가 실행될 때는 먼저 사용자의 요구사항을 분석하고, 전체 사고 과정을 독립 문서에 명확히 기록한 후 단계별로 실행하는 방식을 취합니다. 이 과정에서 다양한 API를 호출하여 협업으로 과제를 완수할 수 있으며, 브라우저를 실행하여 사람과 웹페이지 간 상호작용을 탐색할 수도 있습니다.
과장된 마케팅과 희소성 전략
마누스 AI는 출시 직후부터 매우 공격적인 마케팅 전략을 펼쳤습니다. 특히 초대 코드를 통해서만 접속할 수 있도록 베타 테스트 접근을 제한함으로써 의도적인 희소성을 만들어냈습니다. 이러한 접근법은 사용자들의 호기심과 욕구를 자극하는 효과를 가져왔지만, 동시에 시스템의 실제 성능에 대한 객관적인 평가를 어렵게 만들었습니다.
희소성 마케팅 전략의 결과로, 마누스 AI의 초대 코드는 중국의 리셀러 앱 Xianyu에서 수천 달러에 거래되었다는 보고가 있었으며, 심지어 5만 위안(약 1000만 원) 이상의 가격에 거래되기도 했습니다. 이러한 가격 형성은 제품의 가치보다는 인위적으로 만들어진 희소성에 기인한 것으로 볼 수 있습니다.
중국 내 미디어의 집중적인 홍보도 마누스 AI의 인기에 큰 영향을 미쳤습니다. 중국의 주요 언론사 QQ News는 마누스 AI를 "국내 기술의 자부심"이라고 평가하며 연일 보도를 이어갔고, 많은 AI 관련 소셜미디어 인플루언서들이 마누스 AI가 DeepSeek AI를 능가할 것이라 주장하며 기대감을 높였습니다7.

과장된 기능 홍보와 실제 성능
마누스 AI는 자사 웹사이트에서 부동산 구매, 게임 설계 등의 복잡한 작업을 수행할 수 있다고 홍보했습니다. 그러나 실제 사용자 테스트 결과 이러한 작업을 완전히 자동화하는 데는 한계가 있었습니다. 일부 바이럴 영상이 AI의 실제 기능을 과장한 내용으로 밝혀지면서 논란이 되기도 했습니다.
초대코드를 받은 실제 이용자들은 자율 코딩 능력은 놀랍지만, AI 비서 성능 측면에선 적용이 제한적이고 오류가 잦다고 지적했습니다. 테크크런치와 같은 미국 테크전문 매체도 '마누스는 두 번째 딥시크 모멘트는 아니다'라는 제목의 기사를 통해 "초기 이용자들이 마누스가 만능은 아니라는 반응을 보이고 있다"며 "기본적인 오류를 자주 범한다"고 지적했습니다7.
마누스 AI와 다른 AI 도구의 성능 비교
마누스 AI는 GAIA(GAI Assistant) 벤치마크 테스트에서 OpenAI의 최신 모델보다 우수한 성능을 보였다고 주장합니다4. GAIA 벤치마크는 AI의 실세계 문제 해결 능력을 평가하는 지표로, 마누스 AI는 모든 난이도 수준에서 OpenAI Deep Research와 이전 최고 수준을 능가했다고 발표했습니다4.
구체적인 벤치마크 점수는 다음과 같습니다:
기본 작업 | 86.5% | 74.3% |
중급 작업 | 70.1% | 69.1% |
복잡한 작업 | 57.7% | 47.6% |
그러나 이러한 벤치마크 결과를 그대로 받아들이기 전에 몇 가지 고려해야 할 점이 있습니다:
- 이 벤치마크 결과는 마누스 AI 자체에서 제공한 것으로, 독립적인 검증이 이루어지지 않았습니다13
- 벤치마크 테스트의 구체적인 방법론과 평가 기준이 투명하게 공개되지 않았습니다
- 벤치마크 테스트가 실제 사용 환경에서의 성능을 정확히 반영하지 못할 수 있습니다
실제 성능과 한계점
마누스 AI의 실제 성능은 초기 마케팅에서 주장한 것보다 더 복잡한 양상을 보입니다. 사용자들이 보고한 주요 문제점은 다음과 같습니다:
- 오류와 충돌: 시스템이 자주 충돌하거나 반복 루프에 빠지는 현상7
- 기본 작업 수행의 어려움: 음식 주문, 항공편 예약 등 기본적인 작업에서도 실패하는 경우가 많음7
- 사실 부정확성: 출처를 인용하지 않고 잘못된 정보를 제공하는 경우 발생7
- 깨진 링크: 항공편이나 서비스를 검색할 때 오래되거나 작동하지 않는 링크를 반환7
장 타오 모니카 제품책임자는 "현재 버전 마누스는 아직 미숙한 단계"라며 "최종 제품이 구현하려는 성능과는 거리가 멀다"고 인정했습니다. 또한 "단지 AI 에이전트 초기 성과 일부를 공유하고 싶었을 뿐"이라며 "이번 클로즈 베타를 통해 시스템이 발현할 수 있는 다양한 문제를 식별하고 이용자 핵심 경험을 우선시해 점진적이고 체계적으로 초대 코드를 확대할 예정"이라고 설명했습니다.

비용 측면의 고려사항
마누스 AI의 또 다른 중요한 측면은 비용입니다. 마누스 AI는 자체 AI 모델을 개발하지 않고 Claude Sonnet 3.5와 같은 기존 상용 모델을 활용하기 때문에, 이러한 모델 사용에 따른 비용이 발생합니다. 일부 추정에 따르면, 마누스 AI의 사용 비용은 작업당 약 2달러로 계산됩니다5.
이는 DeepSeek이 자체 모델을 개발하여 저렴한 가격에 제공하는 접근 방식과는 대조적입니다. 이러한 비용 구조는 마누스 AI의 대중화와 확산에 장애물이 될 수 있습니다. 특히 개인 사용자나 소규모 기업의 경우, 작업당 2달러의 비용은 상당한 부담이 될 수 있습니다.
마누스 AI의 미래 전망과 시사점
마누스 AI는 AI 에이전트라는 새로운 패러다임을 제시하며 AI 업계에 신선한 충격을 가져왔습니다. 다중 에이전트 시스템, 멀티모달 능력, 자율적 작업 수행 등의 기능은 분명 주목할 만한 발전입니다.
마누스 AI와 같은 기술이 발전함에 따라 다음과 같은 변화가 예상됩니다:
- AI 에이전트의 자율성 증가: 인간의 지속적인 개입 없이도 복잡한 작업을 수행할 수 있는 AI 시스템이 더욱 발전할 것입니다3
- 중국 AI 기업의 위상 강화: DeepSeek에 이어 마누스 AI가 글로벌 주목을 받으면서, 중국 AI 기업들의 기술적 역량과 혁신성이 재평가되고 있습니다3
- AI 비용 구조의 변화: 자체 모델 개발과 기존 모델 통합이라는 서로 다른 접근법 사이의 경쟁이 더욱 치열해질 것입니다5
그러나 마누스 AI의 과장된 마케팅, 희소성을 통한 인위적 가치 창출, 그리고 실제 성능과의 괴리는 이 기술을 객관적으로 평가하는 데 어려움을 줍니다7. 이는 새로운 AI 기술을 평가할 때 마케팅 주장과 실제 성능을 균형 있게 고려해야 함을 상기시킵니다.
결론: AI 마케팅과 실제 성능 간의 균형이 필요하다
마누스 AI는 여러 기존 AI 도구와 모델을 통합하여 새로운 가능성을 제시했지만, 각 기능의 성능이 최고 수준에 도달하지는 못했습니다7. 이는 AI 에이전트 분야가 아직 발전 초기 단계에 있으며, 완벽한 자율 AI 에이전트를 구현하기 위해서는 더 많은 기술적 발전과 시간이 필요함을 시사합니다.
향후 마누스 AI와 같은 자율 AI 에이전트를 평가할 때는 다음 사항을 고려해야 합니다:
- 마케팅 주장을 넘어 실제 사용자 경험과 독립적인 벤치마크를 확인할 것
- 자율성과 효율성뿐만 아니라 정확성과 신뢰성도 중요한 평가 기준으로 삼을 것
- 비용 대비 효과를 고려하여 실제 업무 환경에서의 가치를 평가할 것
AI 기술은 계속해서 발전하고 있으며, 마누스 AI와 같은 시도는 미래 AI 에이전트의 가능성을 보여주는 중요한 발걸음입니다. 하지만 현실적인 기대치를 설정하고, 객관적인 시각으로 이러한 기술을 평가하는 것이 중요합니다.
여러분은 어떻게 생각하시나요? 자율 AI 에이전트가 실제로 우리의 일상과 업무에 혁명을 가져올까요? 아니면 아직 넘어야 할 산이 많은 걸까요? 댓글로 여러분의 생각을 나눠주세요!
태그: #마누스AI #자율AI에이전트 #인공지능 #중국AI #DeepSeek #GPT4비교 #AI기술 #다중에이전트시스템 #AI마케팅 #기술혁신 #미래기술 #자동화 #인공지능발전
Manus AI: China's Revolutionary Autonomous Agent, Is It Really a Game Changer?
Manus AI is receiving explosive attention in the AI industry and is being evaluated as the "Second DeepSeek Moment." Developed by Chinese AI startup Monica.im, this technology is introduced as a "fully automated AI agent" that autonomously performs complex tasks beyond existing chatbots. But does Manus AI really provide the innovative performance claimed in its marketing, and what differentiating factors does it have compared to OpenAI's Deep Research or other AI tools? Let's explore together.
Technical Foundation and Features of Manus AI
Manus AI adopts a multi-agent architecture where multiple independent AI models collaborate to perform tasks rather than a single AI model. This system is built on existing commercial LLMs such as Claude Sonnet 3.5 and post-trained Qwen, taking an approach of effectively integrating already verified models rather than developing its own LLM. This approach contrasts with DeepSeek, which focused on developing its own model.
Manus AI provides the following key functions:
- User request analysis using language and reasoning models
- Planning steps for task execution
- Access to browsers, search engines, file editors, terminals, etc.
- Various tasks including file analysis, code writing and execution, web scraping, etc.1
Multi-Agent System Structure
One of the core technical features of Manus AI is its multi-agent system. While typical AI models have a central model process all questions and requests, Manus AI adopts an approach where multiple independent AI agents perform their respective roles and collaborate to produce better results.
This approach enables more efficient handling of complex tasks, allowing each agent to perform optimally in its specialized domain. Additionally, Manus AI features multimodal interaction, external tool integration, asynchronous cloud processing, and memory functions, providing flexibility to handle various types of tasks.
When executing, Manus AI first analyzes user requirements, clearly documents the entire thought process in an independent document, and then executes step by step. During this process, it can call various APIs to collaborate on completing tasks and can run browsers to explore interactions between people and web pages.
Exaggerated Marketing and Scarcity Strategy
Manus AI deployed a very aggressive marketing strategy immediately after its launch. In particular, it created intentional scarcity by restricting beta test access to invitation codes only. While this approach effectively stimulated user curiosity and desire, it also made objective evaluation of the system's actual performance difficult.
As a result of this scarcity marketing strategy, Manus AI invitation codes were reportedly traded for thousands of dollars on Chinese reseller app Xianyu, with prices reaching over 50,000 yuan (approximately 10 million KRW). This pricing was more a reflection of artificially created scarcity than the product's inherent value.
Intensive promotion in Chinese media also significantly influenced Manus AI's popularity. Major Chinese news outlet QQ News evaluated Manus AI as "the pride of domestic technology" and continued daily coverage, while many AI-related social media influencers claimed Manus AI would surpass DeepSeek AI, raising expectations7.
Exaggerated Feature Promotion and Actual Performance
Manus AI promoted on its website that it could perform complex tasks such as real estate purchases and game design. However, actual user testing revealed limitations in fully automating these tasks. Some viral videos were revealed to have exaggerated the AI's actual features, causing controversy.
Actual users who received invitation codes noted that while autonomous coding abilities were impressive, the AI assistant was limited in performance and prone to frequent errors. U.S. tech media outlet TechCrunch also published an article titled "Manus is not a second DeepSeek moment," stating that "early users are showing that Manus is not a panacea" and "it frequently makes basic errors"7.
Performance Comparison Between Manus AI and Other AI Tools
Manus AI claims to have shown superior performance to OpenAI's latest models in the GAIA (GAI Assistant) benchmark test4. The GAIA benchmark evaluates AI's real-world problem-solving abilities, and Manus AI announced that it surpassed OpenAI Deep Research and previous top levels across all difficulty levels4.
Specific benchmark scores are as follows:
Basic Tasks | 86.5% | 74.3% |
Intermediate Tasks | 70.1% | 69.1% |
Complex Tasks | 57.7% | 47.6% |
However, there are several considerations before accepting these benchmark results at face value:
- These benchmark results were provided by Manus AI itself and have not been independently verified13
- The specific methodology and evaluation criteria of the benchmark tests have not been transparently disclosed
- Benchmark tests may not accurately reflect performance in actual usage environments
Actual Performance and Limitations
Manus AI's actual performance presents a more complex picture than initially claimed in marketing. The main issues reported by users include:
- Errors and Crashes: The system often crashes or gets stuck in repetitive loops7
- Difficulty Performing Basic Tasks: Many failures even in basic tasks such as ordering food or booking flights7
- Factual Inaccuracies: Instances of providing incorrect information without citing sources7
- Broken Links: Returns outdated or non-functional links when searching for flights or services7
Monica's product manager Zhang Tao acknowledged that "the current version of Manus is still at an immature stage" and "is far from the performance the final product aims to implement". He also explained, "We just wanted to share some of the early achievements of the AI agent" and "Through this closed beta, we plan to identify various problems the system may manifest and expand invitation codes gradually and systematically, prioritizing core user experiences".
Cost Considerations
Another important aspect of Manus AI is cost. Because Manus AI utilizes existing commercial models like Claude Sonnet 3.5 rather than developing its own AI models, costs associated with using these models are incurred. According to some estimates, the cost of using Manus AI is calculated at about 2 dollars per task5.
This contrasts with DeepSeek's approach of developing its own models to provide services at affordable prices. This cost structure could be a barrier to the popularization and spread of Manus AI. Especially for individual users or small businesses, a cost of 2 dollars per task could be a significant burden.
Future Prospects and Implications of Manus AI
Manus AI has brought fresh impact to the AI industry by presenting a new paradigm of AI agents. Features such as multi-agent systems, multimodal capabilities, and autonomous task performance are certainly noteworthy developments.
As technologies like Manus AI evolve, the following changes are anticipated:
- Increased Autonomy of AI Agents: AI systems capable of performing complex tasks without continuous human intervention will develop further3
- Strengthened Position of Chinese AI Companies: Following DeepSeek, as Manus AI gains global attention, the technological capabilities and innovativeness of Chinese AI companies are being reevaluated3
- Changes in AI Cost Structure: Competition between different approaches—developing proprietary models versus integrating existing models—will intensify5
However, Manus AI's exaggerated marketing, artificial value creation through scarcity, and discrepancies with actual performance make it difficult to objectively evaluate this technology7. This reminds us that when evaluating new AI technologies, marketing claims and actual performance must be considered in balance.
Conclusion: Balance Between AI Marketing and Actual Performance is Needed
Manus AI has presented new possibilities by integrating various existing AI tools and models, but the performance of each feature has not reached the highest level7. This suggests that the field of AI agents is still in early stages of development, and more technological advancement and time are needed to implement perfect autonomous AI agents.
When evaluating autonomous AI agents like Manus AI in the future, the following factors should be considered:
- Beyond marketing claims, check actual user experiences and independent benchmarks
- Consider accuracy and reliability as important evaluation criteria, not just autonomy and efficiency
- Evaluate value in actual work environments considering cost-effectiveness
AI technology continues to evolve, and attempts like Manus AI represent important steps in exploring the future possibilities of AI agents. However, it's important to set realistic expectations and evaluate such technologies from an objective perspective.
What do you think? Will autonomous AI agents really revolutionize our daily lives and work? Or are there still many mountains to climb? Please share your thoughts in the comments!
#ManusAI #AutonomousAIAgent #ArtificialIntelligence #ChineseAI #DeepSeek #GPT4Comparison #AITechnology #MultiAgentSystem #AIMarketing #TechnologicalInnovation #FutureTechnology #Automation #AIDevelopment
'DeepResearch' 카테고리의 다른 글
📱 AI 에이전트 대격변: OpenAI의 '도구와 API'가 바꾸는 디지털 세상 (2025년 최신 기술 총정리) (0) | 2025.03.15 |
---|---|
현실과 가상의 경계를 허무는 메타의 AR 기술: 미래 소통의 혁명이 시작되다 (0) | 2025.03.15 |
아이디어를 현실로: Manus AI가 여는 자동화 창업의 혁명적 시대 (0) | 2025.03.14 |
로봇의 미래가 여기에! 구글 '제미나이 로보틱스'가 여는 AI 로봇 혁명 (1) | 2025.03.14 |
"3개월 안에 코드의 90%가 AI로 작성된다" - 앤트로픽 CEO의 충격적 예측과 코딩의 미래 (0) | 2025.03.14 |