과기정통부, R&D 지원산업에 57억 투입 — 2026년 연구산업육성사업 지금 신청해야 하는 이유

들어가며

솔직히 나도 처음엔 “연구산업육성사업”이라는 말만 들었을 때, 대학 교수들이나 국책연구소 소속 연구자들 얘기겠지 싶었다. 기술 창업 준비하면서 정책자금 정보 찾다 보면 이름부터 딱딱한 사업들이 너무 많아서, 눈에 잘 들어오지도 않는다.

근데 이번 과기정통부 발표 내용 좀 들여다봤더니 생각보다 범위가 넓었다. 대학·출연연 소속 연구자뿐 아니라 연구개발을 독립적으로 수행하는 기업, 심지어 주문연구 기업과 연구관리 분야 전문기업도 참여 가능하다고 한다. 이 정도면 AI 기반 솔루션 개발하는 스타트업이나 1인 창업자도 범주에 들어갈 여지가 있다.

2026년 연구산업육성사업 신규 공모 마감이 이달 4일(3월 4일) 까지였다는 건 좀 아쉽지만, 구조 자체는 다음 라운드에도 이어질 테니 지금부터 파악해두는 게 낫다.

57억, 47개 과제 — 숫자로 보는 이번 공모

이번 공모의 핵심 수치부터 정리하자.

  • 총 지원 규모: 57억 원
  • 선정 과제 수: 47개
  • 접수 시스템: 범부처 통합연구지원시스템(IRIS)
  • 접수 기간: 2026년 2월 19일 ~ 3월 4일

과제당 평균으로 계산하면 약 1억 2천만 원 수준이다. 물론 과제 유형마다 규모가 다르겠지만, 초기 창업 기업 입장에서는 꽤 의미 있는 금액이다.

지원 대상은 크게 세 그룹이다.

  1. 대학 및 정부출연연구기관 소속 연구자
  2. 연구개발을 독립적으로 또는 수탁 방식으로 수행하는 주문연구 기업
  3. 연구관리 분야 전문기업

사실 “연구관리 전문기업”이라는 표현이 처음엔 좀 모호하게 느껴질 수 있는데, 쉽게 말하면 R&D 프로세스 자체를 효율화하거나 지원하는 서비스를 하는 곳들이다. AI 기반 연구 자동화 툴, 데이터 관리 솔루션 같은 것들도 여기에 해당될 수 있다.

창업 → 고도화 → 해외진출, 정부가 그리는 성장사다리

이번 사업에서 내가 제일 주목한 부분은 지원 구조다. 과기정통부는 단순히 돈을 뿌리는 게 아니라 기술 창업 → 스케일업(고도화) → 글로벌 시장 진출로 이어지는 단계별 성장 경로를 설계하고 있다.

실제 성과 사례들도 공개됐는데, 보면서 꽤 인상적이었다.

  • 다겸: AI 기반 예지보전 카메라 시스템으로 반도체·이차전지 공정에 적용. 매출이 2023년 30억 원에서 2025년 107억 원으로 수직 상승했다. 3년 만에 3배 이상. 이게 스케일업 지원을 받은 결과다.
  • 젬크로(연세대 교원 창업): 전임상용 마우스 모델 사업화로 5억 원 수주 + 신규 고용 5명 + 영국 수출 추진 중.
  • 엔비피헬스케어: 뇌 질환 치료용 생균치료제 분야에서 미국 FDA 사전 임상상담(Pre-IND) 완료. 해외 투자 유치와 기술 이전까지 노리고 있다.

세 곳 다 공통점이 있다. 처음부터 글로벌을 겨냥한 게 아니라, 국내에서 기반을 쌓고 정부 지원으로 단계를 밟아 해외로 나갔다는 점. 이 구조가 맞다고 본다. 처음부터 해외 시장 두드리는 건 솔직히 리소스가 없으면 현실적으로 어렵다.

1인 창업 준비하는 입장에서 느낀 점

나는 지금 AI 솔루션 기반으로 창업을 준비하고 있다. 그러다 보니 이런 정책자금 소식을 볼 때마다 “나는 해당되나?”부터 본다.

이번 사업은 스타트업이나 소규모 기업에게 바로 열려 있는 문은 아닐 수 있다. 특히 대학·출연연 연구자 중심으로 설계된 측면이 강하다. 근데 주문연구 기업 카테고리는 계속 확인할 필요가 있다. 외부로부터 R&D를 수탁받아 수행한다는 조건이 맞는다면, 기술 기반 스타트업도 참여 가능성이 열려 있다.

당장 이번 공모를 놓쳤더라도, 연구산업육성사업은 매년 신규 공모가 이어지는 연속 사업이다. 지금부터 IRIS 시스템에 계정 만들어두고 공고 알림 세팅해두는 게 좋다. 정책자금은 결국 준비된 사람이 먼저 챙기는 게임이라는 걸 몇 번 경험하고 나면 알게 된다.

마무리

연구산업이라는 말이 나랑 거리가 멀 것 같아도, 들여다보면 의외로 연결고리가 있다. 정부는 R&D 인프라를 넘어 사업화와 글로벌 진출까지 밀어주려는 방향을 잡고 있고, 실제 기업들의 성과도 나오고 있다.

기회는 항상 공고문 안에 있다. 귀찮아도 한 번씩 열어보는 사람이 결국 챙긴다.

MWC 2026 개막 — 삼성·이통3사·샤오미까지, AI 전쟁의 현장을 정리해봤다

들어가며

솔직히 MWC가 예전엔 그냥 “스마트폰 신제품 발표하는 행사” 정도로 느껴졌다. 근데 2026년부터는 다른 느낌이다. 올해 슬로건이 The IQ Era, 즉 “지능이 연결을 이끄는 시대”라고 하는데, 이게 그냥 마케팅 문구가 아니라 진짜 현장 분위기가 그렇다고 한다.

2월 2일(현지시간), 스페인 바르셀로나 피라 그란비아에서 MWC 2026이 공식 개막했다. 삼성부터 샤오미, SK텔레콤, MS, 퀄컴까지 — 전부 ‘AI’를 내세우고 출동한 것이다. 나처럼 AI 기반 서비스를 만들고 있는 입장에서는 눈여겨볼 포인트가 꽤 많았다.

삼성은 “갤럭시 AI 생태계”로 승부수를 던졌다

삼성전자는 이번 MWC에서 1745㎡(528평) 규모의 전시관을 차렸다. 규모도 규모지만, 핵심은 갤럭시 S26 시리즈와 AI 연동 경험이었다.

특히 S26 울트라에는 모바일폰 최초로 프라이버시 디스플레이가 탑재됐다. 옆에서 화면이 안 보이게 막아주는 기능인데, 현장에서 아이폰 쓰는 외국 기업 관계자가 “우리 폰엔 언제 이런 게 생기냐”고 했다는 게 웃기면서도 의미심장하다.

그 외에도 갤럭시 XR, 갤럭시 Z 트라이폴드 같은 차세대 폼팩터를 통해 미래 모바일 방향성을 제시했다. 음성·이미지 등 멀티모달 입력 기반의 AI 활용 사례도 대거 공개했다. 개발자 입장에서 보면 삼성이 단순 하드웨어 회사가 아니라 AI 플랫폼 기업으로 포지셔닝을 확실히 바꾸고 있다는 게 느껴진다.

이통3사의 메시지: “통신이 AI를 쓰는 게 아니라, 통신 자체가 AI가 된다”

SK텔레콤, KT, LG유플러스 — 이통3사가 MWC에서 공통적으로 들고 나온 키워드는 AX(AI 내재화, AI Transformation)다.

이게 무슨 말이냐면, 기존에는 통신망 위에서 AI 서비스를 얹는 구조였다면, 이제는 네트워크·클라우드·고객 서비스 자체가 AI로 재설계된다는 거다. 인프라 수준에서 AI가 들어간다는 이야기다.

사실 나는 이 부분이 가장 크게 와닿았다. 1인 개발자로 AI 기반 서비스를 만들 때, 인프라 레벨에서 AI가 내재화되어 있다면 개발 복잡도가 훨씬 낮아질 수 있다. 통신사가 제공하는 API나 클라우드 플랫폼이 더 스마트해진다는 뜻이니까. 앞으로 통신사들이 B2B 개발자 생태계를 어떻게 가져가는지 유심히 봐야 할 것 같다.

중국의 달라진 위상 — 샤오미·아너, 더 이상 카피캣이 아니다

한때 “중국 = 카피캣”이라는 인식이 있었는데, MWC 2026에서는 그 얘기가 완전히 옛날 얘기처럼 느껴진다.

아너(HONOR)는 삼성 전시관 바로 옆에 부스를 차리고 AI 카메라·디바이스 연동 시연으로 관람객을 끌어모았다. 샤오미는 신형 스마트폰과 AIoT 기기는 물론, 가상 슈퍼카 콘셉트 ‘비전 GT’까지 공개해 눈길을 끌었다. 스마트홈, 웨어러블까지 아우르는 생태계 전략이 확실히 성숙해진 느낌이다.

개발자 관점에서 보면, 중국 기업들이 AIoT 쪽 생태계를 빠르게 장악하고 있다는 게 무서운 지점이다. 플랫폼이 다양해지면 우리 같은 앱 개발자에게는 기회가 되기도 하고, 파편화된 생태계에 대응해야 하는 부담이 되기도 하니까.

마무리

MWC 2026을 한 줄로 정리하면 이거다. “이제 AI는 기능이 아니라 인프라다.”

삼성은 AI 생태계로, 이통3사는 AI 내재화로, 중국 기업들은 AI 결합 하드웨어로 — 다들 AI를 서비스 위에 얹는 게 아니라 제품과 인프라의 기반으로 집어넣고 있다. 이 흐름을 이해하고 개발 방향을 잡는 것, 창업을 준비하는 입장에서 꽤 중요한 시그널이라고 본다.

MWC 2026는 5일(현지시간)까지 진행되며, 10만 명 이상의 관람객이 방문할 것으로 예상된다고 하니 이후 발표들도 계속 체크해볼 예정이다.

중국 AI가 미국을 처음으로 앞질렀다 — 오픈라우터 순위가 증명하는 ‘AI 가격 전쟁’의 진짜 의미

(사진=셔터스톡)

들어가며

나는 요즘 개인 프로젝트에서 LLM API를 고를 때마다 가격표를 먼저 본다. 솔직히 성능보다 가격이 먼저 눈에 들어오는 게 현실이다. 클로드 오퍼스 같은 고성능 모델이 좋다는 건 알겠는데, 토큰 단가 보는 순간 손이 멈춘다. 아마 나만 그런 건 아닐 것이다.

그 흐름을 숫자로 정확하게 보여주는 데이터가 나왔다. 2026년 2월, AI 모델 플랫폼 ‘오픈라우터(OpenRouter)’에서 중국 AI 모델의 주간 토큰 사용량이 처음으로 미국을 추월했다. 플랫폼 개설 이래 사상 처음 있는 일이다. 단순한 순위 변동이 아니라 AI 시장 판도가 실질적으로 흔들리고 있다는 신호다.

오픈라우터 순위, 숫자로 보면 더 명확하다

오픈라우터는 개발자들이 GPT, 클로드, 제미나이, 딥시크 같은 여러 AI 모델을 하나의 API로 연결해 사용하는 플랫폼이다. 주로 개인 개발자와 소규모 스타트업이 비용 절감을 위해 모델을 자유롭게 스위칭하며 쓰는 곳이다. 즉, “가성비”가 곧 선택 기준인 공간이다.

2월 기준 주간 토큰 사용 순위를 보면 충격적이다.

  • 1위: 미니맥스 M2.5 — 1조 7300억 토큰 (2월 13일 출시 후 3주 연속 1위)
  • 2위: 구글 제미나이 3 플래시 — 1조 700억 토큰
  • 3위: 딥시크 V3.2 — 8400억 토큰
  • 4위: 문샷AI 키미 K2.5 — 6850억 토큰
  • 5위: 앤트로픽 클로드 소네트 4.6 — 6630억 토큰
  • 8위: 지푸AI GLM 5 — 5850억 토큰

중국 모델이 1, 3, 4, 8위를 차지하고 있다. 같은 기간 중국 모델의 총 토큰 사용량은 5조 1600억 토큰, 미국 모델은 2조 7000억 토큰으로 거의 2배 차이가 났다. 미국이 1년 넘게 쥐고 있던 주도권이 단 몇 주 만에 뒤집혔다.

이게 가능한 이유 — 가격 차이가 압도적이다

왜 이런 일이 벌어졌을까. 핵심은 딱 하나, 가격이다.

미니맥스 M2.5의 API 단가는 입력 100만 토큰당 0.295달러, 출력 1.2달러다. 반면 클로드 오퍼스 4.6은 입력 5달러, 출력 25달러다. 단순 계산으로 16~20배 차이가 난다.

개발자 입장에서 똑같은 서비스를 만들 때 API 비용이 20분의 1이면, 성능이 조금 아쉬워도 중국 모델을 선택하는 게 당연한 결정이다. 특히 AI 에이전트나 자동 코딩처럼 토큰 소비량이 폭발적으로 많아지는 작업에서는 이 차이가 더 극명하게 드러난다.

참고로, 2위를 기록한 구글 제미나이 3 플래시도 입력 0.5달러/출력 3달러로 저렴한 편이고, 6위 xAI 그록 4.1 패스트는 입력 0.2달러/출력 0.5달러로 아예 중국 모델급이다. 미국도 이미 가격 인하 경쟁에 뛰어든 것이다. 앤트로픽 역시 최근 출시한 클로드 4.5/4.6 라인업의 API 가격을 기존의 3분의 1 수준으로 대폭 낮췄다.

이 데이터, 그대로 믿어도 될까?

한 가지 냉정하게 짚어야 할 게 있다. 오픈라우터는 기업 단위의 대규모 AI 사용량을 대표하는 플랫폼이 아니다. 주로 개인 개발자와 스타트업이 쓰는 곳이라, 여기서 저렴한 모델이 많이 쓰이는 건 어찌 보면 당연한 결과다.

실제 엔터프라이즈 시장, 즉 대기업들이 클로드나 GPT-4o를 쓰는 규모까지 포함하면 순위는 달라질 수 있다. 하지만 그렇다고 이 데이터의 의미가 사라지진 않는다.

개발자 커뮤니티에서의 점유율은 미래 주류 기술의 방향성을 먼저 보여주는 선행 지표다. 지금 스타트업 개발자들이 쓰는 모델이 3~5년 후 산업 전반에서 쓰이는 모델이 되는 경우가 많다. 그 관점에서 중국 모델의 급부상은 충분히 주목할 만한 신호다.

마무리

AI 시장은 지금 단순한 성능 경쟁에서 가격 경쟁으로 무게 중심이 이동하고 있다. 중국 모델들이 단기간에 오픈라우터 상위권을 점령한 건 단순한 수치 게임이 아니라, 개발자들이 이미 발로 투표를 한 결과다.

나는 이게 “중국 AI가 이겼다”의 문제가 아니라, AI 도구를 쓰는 사람이라면 가격 구조를 한번쯤 다시 살펴볼 타이밍이라는 신호라고 생각한다. 어떤 모델을 쓰든, 비용 효율성은 이제 선택이 아니라 기본값이 됐다.

2026년, 혼자서 팀처럼 일하는 법 — 1인 창업자가 써야 할 AI 자동화 스택

📌 들어가며

요즘 주변에서 자주 듣는 말이 있다.

“혼자 하면 한계가 있지 않아요?”

솔직히 말하면, 예전엔 그 말에 반박하기 어려웠다. 디자인도 해야 하고, 개발도 해야 하고, 고객 응대에 SNS 콘텐츠까지. 1인 창업은 ‘사장’ 타이틀보다 ‘잡부’ 타이틀이 더 어울렸다.

그런데 2026년 지금은 얘기가 달라졌다.

AI 자동화 도구들이 쌓이면서, 혼자 굴리는 파이프라인 하나가 소규모 팀 수준의 아웃풋을 낼 수 있게 됐다. 오늘은 내가 실제로 쓰고 있거나 테스트 중인 AI 자동화 스택을 공유해보려 한다. 화려한 이론 말고, 진짜 현실적인 셋업 기준으로.

🧩 왜 ‘스택’으로 접근해야 하는가

AI 도구 하나로 모든 걸 해결하려는 생각은 2024년 기준으로 이미 낡았다.

지금은 도구들끼리 연결이 핵심이다.

예를 들어 Claude에게 아이디어를 물어보고 → 그 결과를 Make(구 Integromat)로 자동 저장하고 → Airtable에 쌓인 데이터를 정기적으로 처리해서 → 완성된 콘텐츠가 SNS에 올라가는 구조.

이 흐름을 한 번 만들어두면 내가 자는 동안에도 ‘팀’이 돌아가는 거다.

그래서 도구 하나의 기능을 따지는 것보다, 어떻게 연결되는지를 먼저 봐야 한다.

🛠️ 내가 쓰는 AI 자동화 스택 5가지

1. Claude — 두뇌 역할

ChatGPT도 좋지만, 긴 문서 분석이나 복잡한 프롬프트 작업에서는 Claude가 훨씬 낫다. 특히 MCP(Model Context Protocol)를 붙이면 단순 채팅을 넘어 파일, DB, 외부 API까지 직접 건드릴 수 있다.

1인 창업자 입장에서 가장 실용적인 활용 포인트는 ‘기획 → 콘텐츠 → 코드’를 한 루프 안에서 처리하는 것이다. 나는 Claude를 아이디어 정리, 블로그 초안, 클라이언트 제안서 초안에 주로 쓴다.

2. Make(Integromat) — 자동화 연결고리

Make는 1인 창업자의 핵심 자동화 허브다. 노코드 기반이라 개발자가 아니어도 쓸 수 있지만, 개발자가 쓰면 훨씬 정교하게 뽑아낼 수 있다.

내가 구성한 시나리오 중 제일 유용한 건 이거다:

  • Airtable에 새 행 추가 → Claude API 호출 → 결과 텍스트 다시 Airtable 저장 → Slack 알림

이 파이프라인 하나로 콘텐츠 초안 생성 작업이 거의 자동화됐다.

3. Airtable — 두뇌 외장 하드

혼자 일하면 머릿속에 모든 걸 담으려다 번아웃이 온다. Airtable은 내 ‘두뇌 외장 하드’ 역할을 한다.

콘텐츠 캘린더, 클라이언트 관리, 아이디어 저장소, 자동화 데이터 저장 — 전부 Airtable로 중앙화했다. Make와 연동하면 수동 입력 없이 데이터가 자동으로 쌓인다.

4. Vercel + Next.js — 실제 제품 배포

이건 내 전문 영역이라 너무 당연하게 쓰고 있지만, 말하자면 인프라 비용이 거의 0에 수렴한다.

Vercel 무료 플랜 + Next.js App Router 조합으로 AI 기능이 붙은 웹 서비스를 빠르게 배포할 수 있다. 특히 Vercel AI SDK를 쓰면 Claude, GPT, Gemini 등 멀티 LLM을 아주 깔끔하게 연결할 수 있어서, 클라이언트에게 AI 기능이 들어간 서비스를 납품할 때 속도가 확 올라갔다.

5. Notion AI + 캘린더 — 실행 관리

아무리 좋은 자동화 스택이 있어도 실행 관리가 안 되면 무너진다.

Notion을 프로젝트 허브로 쓰고, Notion AI를 회의 메모 정리나 주간 리뷰 정리에 활용 중이다. Make랑 연결해서 완료된 작업이 자동으로 Notion에 기록되는 구조도 가능하다.

💡 핵심 인사이트: 1인 창업자가 AI 자동화에서 놓치는 것

도구를 쌓는 게 목적이 되는 순간 망한다.

내가 직접 겪은 실패도 그랬다. 좋다는 도구 다 써보고, 자동화 시나리오 30개 넘게 만들었는데 — 정작 매출로 이어지는 건 3~4개였다.

지금 내 기준은 이렇다.

“이 자동화가 없으면 내가 직접 해야 하는 일인가?”

이 질문에 Yes면 자동화한다. No면 — 그냥 안 해도 되는 일이다.

자동화의 목적은 ‘더 많은 도구를 쓰는 것’이 아니라 ‘내 시간을 사는 것’ 이다.

🤔 내 생각: 프론트 개발자가 1인 창업에서 유리한 이유

솔직히 말하면, 개발자 출신이라는 게 창업에서 상당한 무기다.

AI 도구들을 API로 직접 연결하고, 자동화 파이프라인을 커스터마이징하고, 내가 만든 서비스에 AI를 붙이는 것 — 이 모든 게 비개발자에겐 외주 비용이지만, 우리에겐 시간 투자다.

2026년 기준으로 1인 개발자가 AI를 붙이면 5인 스타트업의 아웃풋을 낼 수 있는 환경이 됐다.
그리고 이 격차는 앞으로 더 벌어질 거라 생각한다.

정책자금 받으러 발표 자료 준비하는 것도 중요하지만, 그것보다 “AI로 뭘 만들 수 있는지”를 빠르게 보여주는 프로토타입이 더 설득력 있다. 투자자도, 심사위원도 결국 결과물을 본다.

📌 마무리

2026년의 1인 창업은 ‘혼자 다 하는 것’이 아니라, ‘AI를 팀원으로 쓰는 것’ 이다.

Claude로 기획하고, Make로 연결하고, Airtable로 쌓고, Next.js + Vercel로 배포한다. 이 루프를 한 번 돌려두면 — 잠자는 동안에도 파이프라인은 돌아간다.

도구를 더 많이 쓰는 게 목표가 아니라, 내가 집중해야 할 일에 더 많은 시간을 쓰는 것이 목표다. 그 여백에서 창업의 진짜 기회가 보인다.

스택 구성이나 Make 시나리오가 궁금하신 분은 댓글 남겨주세요 🙌

빅테크 공습에 네카오가 선택한 생존법: “이기려 하지 말고, 지킬 것을 지켜라”

구글·오픈AI가 쏟아지는 시대, 네이버·카카오는 어떻게 살아남았나?

📌 들어가며

2025년, AI 시장에서 가장 뜨거운 화두는 단연 “빅테크 공습”이었습니다. ChatGPT, Gemini, Meta AI가 한국 시장에 직접 진입하면서 네이버·카카오(이하 네카오)의 자리를 위협했죠.

많은 사람이 예상했습니다. “이제 네카오는 끝이다.”

결과는 정반대였습니다. 네카오는 2025년 나란히 역대 최대 실적을 기록했습니다.

🔍 무슨 일이 있었나?

네이버: “모델 경쟁 대신 서비스 내재화”

네이버는 한때 하이퍼클로바X로 GPT-4에 정면 도전하려 했습니다.
하지만 수조 원의 GPU 비용과 글로벌 스케일 격차를 직시하고 전략을 전환합니다.

→ 온서비스(On-Service) AI 전략

별도 AI 앱을 만드는 대신, 기존 검색·쇼핑·광고에 생성형 AI를 깊숙이 이식했습니다.

  • AI 기반 초개인화 쇼핑 앱 “네이버플러스 스토어”
  • 광고 자동화 도구 “애드부스트”
  • 소버린 AI로 중동 등 해외 시장 진출

결과: 커머스 매출 +26.2%, 핀테크 결제액 23조원 돌파, 매출 12조원 달성.

카카오: “앱 위의 앱” — 카카오톡을 플랫폼으로

카카오는 더 과감했습니다. AI를 별도로 키우는 대신, 카카오톡 자체를 AI 슈퍼앱으로 진화시켰습니다.

  • 초개인화 AI 카나나 (개인 메이트 ‘나나’ + 그룹 메이트 ‘카나’)
  • 숏폼 콘텐츠 + 커머스 피드 통합
  • 계열사 150개 → 94개로 구조조정 (비핵심 사업 정리)

결과: 영업이익 7,320억원 (전년 대비 +48%), 분기 최초 2,000억원 돌파.

💡 핵심 인사이트: 네카오가 잘한 것

1. 전장을 바꿨다

LLM 모델 경쟁에서 이길 수 없다는 걸 인정하고, “AI를 무기로 쓰는 플랫폼 경쟁” 으로 전환. 이건 포기가 아니라 현명한 피벗입니다.

2. 로컬 데이터 해자(Moat)를 활용했다

한국어 검색·쇼핑·메신저 데이터는 구글도 메타도 하루아침에 복사할 수 없습니다. 이 데이터 우위를 AI 개인화의 연료로 태웠습니다.

3. 기존 사용자 락인(Lock-in)을 지렛대로

카카오톡 5,000만 사용자, 네이버 생태계 — 이미 확보된 플랫폼 위에 AI를 올렸기 때문에 새로운 AI 앱이 처음부터 사용자를 모을 필요가 없었습니다.

🤔 내 생각: 프리랜서·1인 창업자 관점에서 보면

빅테크와 싸워 이기려는 순간 집니다.

네카오의 전략에서 배울 수 있는 건 이겁니다.

“내가 잘 아는 영역에서, 내가 가진 것을 무기로 AI를 연결하라.”

저처럼 프론트엔드·풀스택 개발을 하는 1인 창업자라면?

  • GPT-4o를 직접 만들 필요 없습니다.
  • 내가 잘 아는 특정 도메인(교육, 부동산, 종교, B2B SaaS 등) 에서
  • 기존 API + AI 자동화로 버티컬 솔루션을 만드는 게 현실적인 생존법입니다.

네카오도, 우리도 — “이기려 하지 말고, 지킬 것을 지키고 연결할 것을 연결하는 것” 이 AI 시대의 생존 공식입니다.

📌 마무리

네카오의 2025년은 단순한 실적 반등이 아닙니다. AI를 도입하는 방법론의 교과서가 됐습니다.

  • 모델을 키울 자원이 없다면 → 기존 서비스에 AI를 이식하라
  • 사용자를 새로 모을 수 없다면 → 기존 데이터와 플랫폼을 무기로 써라
  • 빅테크와 싸우기 어렵다면 → 그들이 못 들어오는 영역을 깊게 파라

이건 대기업의 이야기이기도 하지만, 1인 창업자의 이야기이기도 합니다.

참고: 매일경제, 서울신문, 디지털투데이 (2025-2026)

MCP란 무엇인가? AI가 드디어 도구를 직접 다루게 됐다

AI에게 “우리 회사 구글 드라이브에서 최근 파일 찾아줘”라고 말했을 때,
“죄송해요, 저는 외부 파일에 접근할 수 없어요”라는 답을 받아본 적 있을 것이다.

그게 지금까지의 AI였다.

그런데 최근 들어 이 상황이 달라지고 있다.
AI가 직접 파일을 열고, 검색하고, 데이터베이스에 접근하는 것이 가능해지고 있다.
그 중심에 있는 기술이 바로 MCP(Model Context Protocol) 이다.

AI는 원래 ‘대화’만 할 수 있었다

ChatGPT, Claude, Gemini 같은 AI는 사실 텍스트를 주고받는 도구다.

사용자가 질문을 입력하면 AI가 답을 텍스트로 돌려준다.
이 구조에서는 AI가 직접 무언가를 실행하거나, 외부 시스템에 접근하는 게 불가능하다.

예를 들어 “지난달 판매 데이터 분석해줘”라고 하면 — AI는 아무것도 할 수 없다.
데이터를 볼 수가 없으니까.

이걸 해결하려면 사용자가 직접 파일을 복사해서 붙여넣거나, CSV를 올리거나 해야 했다.
AI가 똑똑해졌는데 정작 연결이 안 된 상태였던 셈이다.

MCP가 등장한 배경

2024년 말, Anthropic(Claude를 만든 회사)이 MCP를 오픈소스로 공개했다.

목표는 단순하다.

“AI가 외부 도구, 데이터, 서비스에 표준화된 방식으로 연결될 수 있게 하자.”

기존에도 AI에게 도구를 붙이는 방법이 없던 건 아니었다.
하지만 서비스마다 방식이 달라서, 한 번 연결해둬도 다른 AI에서는 다시 만들어야 했다.

MCP는 이 문제를 해결하기 위해 공통 규격을 정의했다.
USB 포트처럼, 규격이 맞으면 어디든 꽂아서 쓸 수 있는 방식이다.

MCP를 한 문장으로 설명하면

“AI가 외부 도구나 데이터에 연결할 수 있도록 만든 표준 연결 규격”

조금 더 풀어서 설명하면 이렇다.

  • 내 컴퓨터 파일 → AI가 직접 읽을 수 있다
  • GitHub 저장소 → AI가 코드를 가져와서 분석할 수 있다
  • Notion, Google Drive → AI가 문서를 열어서 내용을 요약할 수 있다
  • 데이터베이스 → AI가 SQL을 날려서 결과를 가져올 수 있다

이 모든 연결을 가능하게 해주는 다리가 MCP다.

MCP는 어떻게 작동하는가

MCP는 크게 세 가지 구성 요소로 이루어진다.

MCP Host
AI가 돌아가는 환경이다. Claude Desktop, Cursor, 직접 만든 앱 등이 여기에 해당한다.
Host가 MCP를 지원해야 연결이 가능하다.

MCP Server
특정 서비스나 도구를 AI와 연결해주는 중간 역할이다.
예를 들어 “GitHub MCP Server”가 있으면, AI는 이 서버를 통해 GitHub에 접근한다.
서버는 누구나 만들 수 있고, 이미 수백 개의 MCP 서버가 오픈소스로 공개되어 있다.

MCP Client
Host와 Server 사이에서 실제 통신을 처리하는 부분이다.
사용자가 직접 다룰 일은 거의 없다.

이 세 요소가 맞물리면, AI는 도구에 접근하고 결과를 받아서 대화 흐름 안에서 활용할 수 있다.

실제로 어떻게 쓰이는가

개발자가 Claude Desktop에 GitHub MCP를 연결한 경우:

“오늘 커밋된 PR 중에 리뷰가 안 된 것 알려줘”

AI가 직접 GitHub에 접근해서 PR 목록을 가져오고, 리뷰 여부를 확인한 뒤 답한다.
사용자는 링크를 복사하거나 화면을 옮길 필요가 없다.

Notion MCP를 연결한 경우:

“이번 주 회의록 요약해서 액션 아이템만 뽑아줘”

AI가 Notion에 있는 최근 회의록 페이지를 직접 열고, 읽고, 정리해서 돌려준다.

기존에는 이걸 하려면 직접 복사해서 AI 창에 붙여넣어야 했다.
MCP를 쓰면 “그냥 말하면 된다.”

MCP가 중요한 이유

현재 AI 생태계는 빠르게 바뀌고 있다.

ChatGPT, Claude, Gemini 같은 AI 자체의 성능 차이보다,
어떤 도구에 연결되어 있느냐가 실제 업무 효율의 차이를 만들기 시작했다.

MCP는 이 연결을 표준화했다는 점에서 의미가 크다.

특정 AI에 종속되지 않고, 한 번 만든 MCP 서버를 다른 AI에서도 쓸 수 있다.
이미 Google, Block, Replit 등 주요 회사들이 MCP를 지원하기 시작했다.

AI 자동화를 진지하게 고민하고 있다면,
MCP는 선택이 아니라 기본 개념이 되어가고 있다.

지금 당장 써볼 수 있는가

가능하다. 단, 진입장벽이 약간 있다.

Claude Desktop 앱을 설치하고, MCP 서버를 설정 파일에 등록하면 된다.
설정은 JSON 파일로 관리되며, 이미 만들어진 서버는 GitHub에서 찾아 바로 사용할 수 있다.

기술적인 배경이 있다면 30분 내로 첫 연결을 해볼 수 있다.
개발 경험이 없는 경우에도 Cursor, Windsurf 같은 AI 코드 에디터에서는 GUI로 설정이 가능해지고 있다.

마치며

MCP는 “AI가 드디어 손발을 갖게 됐다”는 변화를 대표하는 기술이다.

대화만 하던 AI가 이제 파일을 열고, 서비스에 접근하고, 데이터를 가져온다.
이 변화가 실제 업무에 어떤 영향을 미칠지는, 어떤 도구를 어떻게 연결하느냐에 달려 있다.

AI를 단순히 “질문에 답해주는 도구”로만 쓰고 있다면,
MCP를 통한 연결이 그 활용 범위를 몇 배로 넓혀줄 수 있다.


참고

  • Anthropic MCP 공식 문서: https://modelcontextprotocol.io
  • MCP 서버 목록 (오픈소스): https://github.com/modelcontextprotocol/servers

Copyright © 2026 Trtudio. All rights reserved.