당시엔 온 세상이 GPU만 외치고 있었습니다. SSD와 같은 스토리지엔 관심이 없었습니다. 저는 Agentic AI 시대가 개막되면서 스토리지, 그 중에 SSD가 엄청나게 필요하다는 점을 발견했습니다. 시장은 약 3개월 뒤부터 SSD의 중요성을 본격적으로 반영하기 시작했습니다.
지인분이 하이닉스 낸드쪽에서 일을 하셨는데, 당시만 해도 낸드의 전망은 어둡다고 말할 정도였습니다. 이후, 낸드 업황의 폭발적 개선세를 보고 이 분 자신도 놀랐다고 합니다. 이처럼 반도체는 현업자도 어려운 영역이니 운도 따랐고, 그래서 더 겸허하게 봐야 한다는 생각을 다시금 하였습니다.
아래의 글은 2025년 6월의 글이고, 글을 쓸 당시와 현재 제 생각에 달라진 부분이 꽤 있습니다. 하지만 수정하지 않고 그때 만든 내용을 그대로 올려 보겠습니다. 시작합니다.
아래의 글은 2025년 6월의 글이고, 글을 쓸 당시와 현재 제 생각에 달라진 부분이 꽤 있습니다. 하지만 수정하지 않고 그때 만든 내용을 그대로 올려 보겠습니다. 시작합니다.
Agentic AI에 대한 기초 상식들을 훑어보기
오픈AI는 AGI(완전인공지능)로 가는 여정에서 5개의 레벨을 정의했습니다.
레벨1: 챗봇, 대화형
자연어 처리로 사용자와 질문을 주고 받을 수 있습니다. 현재 많이 사용하는 챗GPT, 그록, 클로드 등이 여기에 속합니다.
레벨2: 추론자, 인간 문제 해결
인간과 유사한 추론 능력을 보유하고 있으며 복잡한 문제들을 해결할 수 있습니다. 다층적 사고가 가능합니다.
레벨3: 에이전트, 실제 행동까지 취한다
이제 사람이 시키지 않아도 AI가 독립적으로 추론하고 판단하고, 실제 행동까지 취합니다. 실시간 데이터 학습이 가능하고 자율주행차, 자동화 된 업무용 로봇 등이 이 레벨에 들어갑니다.
레벨4: 혁신가, 새로운 발명을 해 나간다
새로운 아이디어 도출, 신약개발, 특허까지 설계할 수 있으며 높은 수준의 창의적 사고와 도메인 통합 지식이 필요합니다.
레벨5: 조직을 운영한다, 인간을 넘어선다
조직 전체를 운영할 수 있습니다. 경영, 윤리, 중요 의사결정을 모두 스스로 판단하고 이끌어 나갈 수 있습니다. 이 단계가 AGI로 간주되며 현재는 이론적 단계입니다.
오픈AI에서는 현재 우리가 2단계를 지나고 있다고 밝혔습니다. 현재 개발자들이나 투자자들은 3단계를 가시적으로 준비해 나가는 것으로 보입니다.
AI관련해서는 테마식으로 치고 빠지거나 주식투자에만 매몰되기 보다는 인류 문명의 큰 패러다임 변화로 바라보고, 긴 시간을 갖고 공부를 해나가야 한다고 생각합니다.
LLM과 챗GPT 초반 버전에 대해서는..
| 자료 : 송종식 유튜브(2022년 12월) |
챗GPT가 출시되고, 곧장 콘텐츠를 만들기 시작했습니다. 2022년 12월에 유튜브 라이브 방송에서 챗GPT에 대해 신기해 하시는 분들이 많아서 간단한 작동 원리에 대해서 방송한 바 있고 며칠후에 전체 공개 영상을 하나 만들어서 올려 둔 것이 있습니다. 이제야 모두의 일상이 되어 궁금한 분들은 별로 안 계시겠지만 당시 영상이 궁금하신 분들은 아래의 링크를 통해서 살짝 사전 학습을 하고 넘어가셔도 좋을 듯 싶습니다.
챗GPT를 업무에 활용하자(2022년 12월, 송종식)
https://www.youtube.com/watch?v=4Q7sKe7JJrc
위 영상을 오랜만에 꺼내봤는데요. 지금보니까 추억도 새록새록하지만, 2년 남짓한 기간 동안 이 분야가 얼마나 빨리 발전했는지 새삼 실감하게 됩니다.
그리고 몇달이 지난 2023년 3월에는 LLM 모델이 학습하는데 가장 필요한 자원이 무엇이냐는 문의가 있어서 'GPU 1만개로 6개월 간 학습했다'는 내용의 공부를 하기도 했습니다. 이 부분에 대해서는 했제를 하려는 것이 아니라, LLM을 주목할 때 초기에는 학습위주로 주목을 했지만 이제는 RAG 위주로 주목을 좀 해야하지 않을까 싶어서 꺼낸 이야기입니다. RAG에 대해서는 뒤에서 좀 짚어 보겠습니다.
대표적인 LLM 모델들과 서비스 (2025년 6월)
| 자료 : 송종식, 각 사 |
도서, 언론자료, 웹페이지 등 방대한 데이터들을 먹어 치운 LLM 모델들입니다. 대표적으로는 GPT모델 베이스의 챗GPT, 구글의 제미나이, xAI의 그록 등이 유명하고 인기도 많습니다.
기업들이나 정부 기관이 내부적으로 만들어서 쓰는 LLM 모델을 제외하고도 대외적으로 공개된 LLM 모델이 16만 개가 넘는다는 추정도 있습니다.
하지만 상업적으로 성공을 이루거나 대규모 이용자를 확보한 곳은 북미 지역의 챗GPT, 제미나이, 그록, 퍼플렉시티 유럽의 미스트랄, 중국의 딥시크 정도이며 메타의 LLama는 모델을 오픈소스로 공개했습니다.
LLM과 관련한 투자포인트? (2025년 6월)
| 자료 : 송종식, 각 사 |
LLM은 어차피 나올 모델은 거의 다 나온 게 아닌가 싶은 생각입니다. SLM이나 비공개 모델이야 계속해서 나오겠지만 대중적인지도를 가지고 시장 파이 나눠먹기 싸움을 할 곳들은 대충 윤곽이 나오는 듯 합니다. 다만, 90년대 IT버블 시기에 아마존이 세계 1등 기업이 될 것을 예측한 사람은 없었듯이 이 분야도 함부로 미래를 예측하는 것은 위험하다는 점도 말씀드립니다.
오픈소스 모델을 이용해서 제한적인 수준의 LLM만 구축하는 것은 훨씬 낮은 비용이 들어갑니다. 그렇다고 해도 최소 몇 천만원에서 몇 억은 깨질 생각을 하고 해야겠지만요. 하지만 저렇게 범용으로 쓸 수 있는 LLM은 어지간한 개인이나 조직은 사실상 구축이 불가능하다고 보시면 됩니다. 방대한 데이터셋을 확보해서 사전 학습을 구현하는 것은 개인은 불가능합니다. 그래서 이미 저쪽도 그들만의 리그가 되고 있는 것은 확실해 보입니다.
물론, LLM 구축 비용은 갈수록 낮아지겠지만, 나중에 제한적으로 구축되는 LLM들이 큰 의미는 있을지 모르겠습니다.
LLM 점유율 싸움에서 이긴 기업들은 LLM을 OS처럼 더 밑단으로 집어 넣어서 플랫폼화 하려는 시도를 할 것입니다. 현재도 이미 API를 판매하거나 유료모델을 팔면서 수익을 내고는 있지만, 이것은 유지 비용이 많이 들어서 어쩔 수 없는 부분이지 이들이 원하는 수익모델이 이 정도 수준에서 멈출 것으로 생각하지는 않습니다.
그리고 LLM을 베이스로 해서 앞으로는 다중 에이전트를 누가 더 많이 포용하는지, RAG 데이터를 누가 더 포용하는지 싸움으로 갈 것 같은 분위기도 보입니다. 이 부분도 뒤에서 말씀드려 보겠습니다.
RAG란?
| 자료 : 송종식 |
2022년에 출시되었던 챗GPT의 초기 버전을 생각해 보세요. 그 시절의 챗GPT는 2023년 이후의 일은 답변을 해주지 못했습니다.
LLM 모델을 사전 학습시키는데는 너무나 많은 데이터셋과 비용이 들어갑니다. 막대한 양의 GPT, 전기, 돈, 시간 등의 비용이 들어갑니다. 모든 데이터셋을 빠른 빈도로 재학습 시키는 것도 사실상 불가능하고 그럴 필요도 없습니다.
이 부족한 부분을 채우기 위해 나온 개념이 RAG(검색 증강 생성, Retrieval-Augmented Generation)입니다.
RAG 매커니즘을 이용하면 LLM은 최신 데이터를 학습할 수 있습니다. RAG는 외부에 있는 데이터들을 가져와서 LLM이 마지막으로 학습했던 부분에서 부족한 부분을 채워주는 방법입니다.
RAG가 외부에서 데이터를 가져올 때 활용하는 것은 기본적으로 자신들이 구축한 자체 웹 크롤러를 통한 웹 크롤링, 구글과 빙 같은 외부의 검색엔진을 이용한 검색결과, 내부 조직에서 DB에 쌓아두는 자료들, 그리고 끝으로 부지런히 수집해 둔 최신의 데이터들을 갖고 있는 벡터DB등입니다.
사용자가 LLM에 질문을 하면, RAG를 이용해서 최신 데이터를 확보하고 이를 다시 LLM이 재생성해서 사용자에게 답변합니다.
RAG를 가장 잘 사용하는 LLM 서비스는 퍼플렉시티라고 생각합니다. 퍼플렉시티는 새벽에 미국이 이란을 폭격한 것도 답변으로 뱉어내 줍니다.
RAG를 활용하면 1) 최신의 정보를 빠르게 습득해서 활용할 수 있고, 2) 비공개 조직의 데이터를 벡터DB 등에 넣어서 활용할 수도 있습니다.
RAG는 LLM 성능 유지에 필수재가 되고 있고, 뒤에서 설명할 AI에이전트 관련해서도 중요한 역할을 할 것으로 생각합니다.
제 개인적인 생각으로는 AI를 보려면 아직 주식시장 참여자들이 안 보고 있는 RAG에서도 기회를 찾아봐야 하지 않나 생각합니다.
LLM 학습 vs. RAG 간단한 비교 (2025년 6월 작성)
| 자료 : 송종식 |
LLM 사전학습에는 당연히 많은 비용과 시간이 들어갑니다. 파인튜닝(미세조정) 비용은 이보다 훨씬 낮지만 그래도 여전히 만만한 수준은 아닙니다. 그러나 RAG는 그보다 훨씬 적은 시간과 비용이 들어갑니다.
다만, LLM 모델은 학습이나 파인튜닝 비용이 들어가지만 이후에는 비용이 점점 낮아집니다. 반대로 RAG는 초반 구축 비용은 낮아도 벡터DB 관리비용, 스토리지 비용 등이 늘어납니다.
LLM 모델을 학습하는데 필요한 비용은 낮아지고 있고, 멀티모달을 지원하는 RAG는 비용이 더 늘어날 수는 있지만 여전히 RAG의 비용적 강점은 존재할 것이라고 생각합니다.
앞서 말씀드렸듯이 LLM의 최신 정보 업데이트, 환각 증상을 낮추기 위한 용도 등 많은 부분에서 RAG의 활용은 늘어날 것으로 생각합니다. 현재난 LLM 학습이나 파인튜닝 쪽 기술도 발전하고 있기 때문에 LLM파인튜닝과 RAG를 결합한 RAFT(하이브리드 형태)가 대세가 될 것이라는 의견도 많습니다.
RAG 투자포인트 (2025년 6월 작성)
| 자료 : 송종식 |
AI 하위 카테고리에서 가장 빠른 성장을 기대할 수 있는 분야 중 하나가 RAG라고 생각하고 있습니다.
LLM을 학습할 때 가장 필요했던 하드웨어가 GPU였다면, RAG를 활용하기 위해 데이터를 저장해야 한다면 NVMe 인터페이스를 가진 SSD가 가장 많이 필요하지 않나 하는 생각이 들었습니다.
데이터를 쉽게 꺼내쓰려면 기존의 SQL과 같이 정형화 된 데이터베이스 보다는 벡터데이터베이스가 적합합니다. 이 과정에서 필요한 것이 벡터데이터베이스, 벡터임베딩, 그리고 빠른 네트워크 속도와 SSD입니다.
벡터데이터베이스 회사로는 Pinecone이 주목을 받고 있습니다.
SSD는 RAG 시대로 가면 갈수록 많이 필요할 것이라고는 생각하는데, 아직 수요가 얼마나 될지, 단가는 얼마나 될지, 그리고 연간 시장 규모는 얼마나 될지, 그리고 이 중에서 가장 투자할 만한 회사는 무엇일지 여부는 아직 리서치 중에 있습니다. 아이디어가 유효하고, 괜찮은회사를 발견하면 이 부분은 추후에 자료를 만들어서 공유하겠습니다. 아이디어가 시원찮거나 제가 뭘 발견하지 못했다면 그냥 조용히 지나가는 것으로 생각해 주세요.
그 다음이 특정 도메인에 특화된 RAG 서비스들입니다. 실시간으로 정보를 빠르게 사용해야 하는 곳에 적합한데, 고객지원 챗봇, 병원과 법률 서비스, 넷플릭스 영화 추천 서비스 등 다양한 곳에서 활용이 가능할 것이라고 생각합니다.
챗GPT와 같은 LLM에게 '이번주 오사카 여행 계획을 짜줘'라고 요청하면, 챗GPT는 오사카에서 갈만한 맛집과 여행동선, 그리고 주의사항을 쭈욱 정리해서 알려줍니다.
그런데, 비행기 티켓을 알아서 예약해 주거나, 호텔을 예약해 주거나, 동선에 있는 곳들 중 필요한 곳의 밥집이나 미술관 예약을 해주거나 직접 뭔가를 '행동'하는 것은 하지 못합니다.
위에 첨부한 이미지를 보시면 제가 그록에게 '이번주에 내 일정을 정리해서 음성으로 읽어줘'라고 부탁했습니다. 그러나 그록이 제 구글 캘린더에 접근하지 못하기 때문에 저 요청은 대응을 해줄 수가 없습니다.
기존의 앱이나 웹은 클라이언트-서버 간 통신을 할 때 API라는 인터페이스를 사용합니다. 쉽게 말씀드리면 제가 네이버를 쓸 때, 사용하는 스마트폰과 네이버에 있는 네이버 서버와 통신할 때 사용하는 통신 규약이라고 생각하면 됩니다.
기존의 API는 개발자가 만들어 준 기능만 쓸 수 있었습니다. '로그인을 한다', '로그아웃을 한다', '검색을 한다', '검색결과를 보여준다'와 같이 데이터를 서로 주고 받고 할 때 하나의 기능만 단방향으로 주고 받을 수 있었습니다. 그리고 그 API들은 기획자와 개발자가 다 만들어 놓고, 사용자는 그 틀 안에서만 서비스를 쓸 수 있었습니다.
API로는 다음과 같은 단방향 작업이 가능합니다. 저의 스마트폰에서 네이버에 검색어를 보냅니다. 그러면 네이버 서버에서는 그걸 받아서 백엔드에서 처리한 후 다시 API를 통해서 저의 스마트폰으로 보내줍니다. 그러면 저는 검색결과를 받아볼 수 있겠지요. 제가 네이버에 '내일 아침 오사카 항공권 시간'이라는 검색어를 보냈다고 해서 네이버가 여러 여행 에이전트를 돌면서 저에게 가장 유리한 항공권을 찾아서 예매해주고, 그리고 그 이후에 호텔도 알아서 예약해주고 이렇게 다중 작업을 하는 것은 불가능합니다. 물론, 개발자가 억지로 기능을 만들면 되기야 하는데, 기존 API 방식의 가장 큰 맹점은 다음과 같습니다.
대형 에이전트 하나를 구축하였다고 할 경우,
사용된 LLM 수 : 5개,
사용된 에이전트 수 : 50개라면,
하나의 기능을 구현하는 API만 해도 250개를 만들어야 합니다. 보통 서비스 하나를 만들 때 API 명세를 보면 적으면 수십개에서 많으면 수천개 수 만개의 기능이 만들어 집니다. 얼마나 비효율적인지 알 수 있습니다.
반면, MCP는 API와 달리 여러 에이전트 간, 그러니까 다중에이전트간 통신이 가능합니다. 그리고 API처럼 특정한 기능에 대한 명세가 있어야 작동하는 것이 아니라 자연어 기반으로 작동하기 때문에 에이전트가 필요한 것들을 알아서 처리할 수 있습니다.
AI에이전트 간 표준 프로토콜이 있다면 위의 API의 경우처럼 큰 삽질을 하지 않아도 됩니다. 에이전트 간 통신을 위해서 표준 프로토콜로 앤트로픽에서 만든 MCP를 채택하자는 목소리가 주류이긴 하지만 아직 확실한 것은 없는 상태입니다. 구글에서도 A2A라는 프로토콜을 내놨고, 에이전트간 통신을 위한 프로토콜은 정말 많이 나온 상태입니다. 나중에 어떤 프로토콜이 표준이 될지는 모르지만 현재는 MCP가 가장 주목을 받고 있습니다. 이 프로토콜을 가진 회사가 이것으로 직관적인 수익모델을 만들기는 어렵겠지만 상당한 수준의 헤게모니는 가져갈 수 있을 것으로 생각합니다.
위의 그림에서는 텔레그램으로 들어 온 이용자 문의에 간단하게 대응하는 AI에이전트의 예시입니다.
텔레그램에 고객문의가 들어오면(트리거), 이를 벡터DB에서 관련 내용을 검색한 후에, LLM에서 답변 문장을 생성해서 팀의 슬랙에 자동으로 등록하고, 문의를 한 고객에게 자동으로 답변을 해주는 간단한 AI에이전트를 그림으로 표현한 것입니다. 이때 LLM과 에이전트간 통신을 할 때 사용하는 규약이 MCP입니다.
LLM에는 질문과 답변만 받을 수 있었지만 AI워크플로우를 구성해서 직접적인 실행과 행위를 하는 에이전트를 구성할 수 있습니다.
프로그래밍을 하시는 분들은 프로그래밍을 이용해서 하시면 되고, 프로그래밍을 못하시는 분들도 make, n8n, LangGraph의 서비스들을 이용해서 에이전트 워크플로우를 구성할 수 있습니다.
make나 n8n을 통한 업무 자동화를 많이들 하는 것으로 보이고요, 해당 툴들의 사용법은 유튜브를 조금만 찾아보셔도 나옵니다.
여기서 중요한 것은 이 AI에이전트 워크플로우를 구성하는 것도 사람이고, 중간중간에 필요한 것들도 사람이 다 설정을 해두어야 한다는 점입니다. 그러면 AI에이전트는 우리가 만들어 놓은 워크플로우 안에서 필요한 행위들을 하게됩니다.
위의 그림의 경우에는 메신저로 뭔가 채팅이 들어오면 AI Agent에서 이것저것 처리해서 참과 거짓값을 판별하고, 참이냐 거짓이냐에 따라서 분기처리해서 슬랙에 전송하는 에이전트로 보입니다.
첫 번째 이미지는 감독자 기본의 에이전트 워크플로우 방법론이고, 두번째 이미지는 이벤트 기반의 에어진트 워크플로우 방법론입니다.
두 방법론은 동작 방식에서 약간의 차이가 있습니다. 프로세스의 복잡도와 목적에 따라서 결정하면 될 일입니다. 일단 주목할 부분은 여행 계획 에이전트 아래에 각자의 목적성을 가진 또 다른 에이전트들이 존재하는 것을 볼 수 있습니다. 항공권만 예약해주는 에이전트, 호텥부킹을 해주는 에이전트, 놀거리를 예약해주는 에이전트, 그리고 차량 렌트를 해주는 에이전트가 있고, 이들의 업무를 망라해서 여행 계획 에이전트가 모든 에이전트들과 조율(오케스트레이션)하면서 하나의 여행 계획을 완성해주는 여행 계획 및 티켓팅 에이전트가 됩니다.
읽어보기 :
Amazon Bedrock을 사용하여 비동기 AI 에이전트 만들기(영문)
https://aws.amazon.com/ko/blogs/machine-learning/creating-asynchronous-ai-agents-with-amazon-bedrock/ (아마존)
이해하기 쉽게 제가 여행 에이전트를 하나 만들었다고 해보겠습니다.
"6월 25일 오전에 출발해서, 7월 1일 밤에 돌아올거야. 이왕이면 국적기를 탔으면 좋겠어. 동 시간대에 가장 저렴한 좌석들이 나오면 알아서 예약해주고, 일본에 있는 호텔은 도톰보리 시내에서 걸어서 10분 안에 있는 곳 3~4성급 호텔이면 좋겠어. 침대는 하나만 있으면 되고, 제일 싸고 괜찮은 곳으로 알아서 예약해줘. 모텔급 퀄리티로 내려가면 안돼. 그리고 머무는 동안 밥 먹을 곳도 찾아서 예약이 되는 곳은 예약해주고 아닌 곳은 그냥 알려줘"
이렇게 에이전트에게 시켜놓았을 때, 앞서 사람이 워크플로우를 손으로 일일이 짜던 것과 뭐가 다를까요. AI에이전트는 제가 정해 놓지 않아도 자기가 알아서 의사결정을 합니다. 더 나은 의사결정을 할 수 있으면 기존 의사결정을 버리기도 하고, 다른 에이전트들과 통신하면서 스스로 추론하고 판단합니다. 그리고 끝에 가서는 필요한 티켓을 모두 예매해두고 저에게 보고하는 실행 과정까지 마치게 됩니다.
고객들에게 이메일 문의가 들어오면 자동으로 답장을 해주는 에이전트도 만들 수 있겠습니다. 이건 제가 요청하지 않아도 알아서 계속 작동하게 해둘 수 있습니다.
고객에게 메일 문의가 들어 옴 -> 벡터DB에서 제가 할법한 내용들을 꺼내서 -> LLM에서 답변 메일을 생성하고 -> 고객에게 자동으로 답장할 수 있습니다.
제 블로그와 텔레그램, 그리고 저의 유튜브 등을 통해서 제가 했을 법한 이야기들을 미리 학습해두고 꺼내서 답장하는 방식입니다.
이러면 고객응대를 하는 직원을 뽑을 필요없이 AI에이전트가 직원 한명의 몫을 할 수 있습니다. 저는 일일이 메일 답장을 하지 않아도 됩니다.
요즘 이런식으로 블로그에 글을 올리거나, 뉴스레터를 쓰는 분들도 많으신 듯 합니다. 가령, 전날밤에 있었던 뉴스들을 에이전트가 알아서 추려서, 우리 구독자들이 좋아할만한 기사의 내용을 요약해서 매일 아침 8시에 레터 형식으로 뿌려주는 에이전트입니다.
덧. 제가 아침마다 보내드리는 뉴스레터도 AI에이전트를 만들어서 보낼 수 있습니다만, 저는 그렇게 하고 있지 않습니다. 저는 형들에게 쓰는 글은 심장에 담아서 한 글자 한 글자 타이핑해서 다 쓰고 있습니다. 또 저는 그렇게 해야 맞다고 생각하고 있습니다.
나온지는 좀 된 개념인데, 기존의 LLM이 추론과 행동을 별도로 연구하던 것에 반해 이것을 상호보완적으로 결합하자는 패러다임을 제시한 'ReAct'라는 개념입니다. 페이스북에서 만든 프론트엔드 라이브러리인 리액트와 다릅니다^^;
리액트 방법론에 따르면 에이전트가 '추론->행동->관찰->추론' 과정을 반복하면서 행동에 대한 계획을 세우고 그것을 조정하는 과정을 거치며, 외부와 연결되어서 새로운 정보를 가져오기도 합니다. 이를 통해서 AI가 사고의 연속성을 가지게 되고 외부 정보도 활용하는 등 더 높은 성능을 구현할 수 있다는 방법론입니다.
아래 논문은 굳이 보실 필요는 없는데, 관심 있으신 형들은 한번 살펴보세요.
- REACT 논문 : https://arxiv.org/pdf/2210.03629
- CoT 논문 : https://arxiv.org/pdf/2201.11903
현재 ReAct 에이전트는 이론상 강력하지만 실패했다는 이야기도 나오고 있고, 다음 세대 에이전트는 이보다 조금 더 엄격한 방향으로 통제하고 설계되는 방향으로 가고 있습니다.
투자를 하거나 사업을 한다면 어디를 봐야할지 한번 간략하게 생각을 해보았습니다.
현재 범용 서비스 중에서 유명한 서비스로는 Make, n8n 같은 도구들이 있습니다. 조금 편하게 업무 자동화를 하거나 필요한 사람들에게 유료로 서비스를 판매할 수 있겠습니다.
위의 그림에 왼쪽 영역에 해당하는 서비스들입니다. 말 그대로 온갖 것들이 나올 수 있습니다. 이미지의 배경을 제거해 주는 서비스도 버티컬 AI라고 할 수 있고, 최근에 시가총액 5조 원을 돌파한 Canva와 같은 서비스는 PPT를 그려주는 AI 에이전트입니다. 정말 다양한 기업들이 쏟아져 나오고 있고, 앞으로도 더 그럴 것입니다.
에이전트 시대에도 LLM은 당연히 가장 중요합니다. 물론 각 개인이나 조직이 구축해서 쓰는 LLM이나 SLM들은 버티컬 서비스로 성장할 수 있겠지만, 특정 범용 LLM 모델이 시장을 장악하고 나면 검색시대에 구글이 누렸던 지위를 누릴 수 있을 것입니다. 누가 그렇게 될지도 면밀히 잘 보면 좋겠네요.
챗GPT 같은 것을 써 보시면 아시겠지만 잠깐 잠깐 직전에 대화 했던 내용들을 기억합니다. 그리고 롱텀메모리는 갈수록 중요해지리라 생각합니다. LLM쪽에서는 RAG를 활용하고 벡터DB에 데이터를 담는 데이터가 늘어나면서, 그리고 AI AGENT는 이용자에 대한 다양한 정보들을 갖고 있기 위해서 SSD의 필요성이 더 증가할 것이라고 생각합니다. HBM과 디램은 이미 노출된 아이디어인데, SSD는 상대적으로 시장에 덜 노출된 아이디어 같아서 이게 실제로 돈이 될지 안될지 한번 파보려고 합니다. 공부가 어느 정도 되어서 특이점이 발견되면 추후에 공유하겠습니다.
당연히 더 많은 데이터센터가 계속해서 필요하고, 더 많은 전기가 계속해서 필요합니다. 인프라와 에너지 부분도 꾸준히 봐야하는 이유입니다.
개와 고양이를 구분해야 하는 프로그램을 만든다고 칩시다. 이걸 AI 공부하는 극초반에 가장 많이 사용하는 사례라서 저도 개와 고양이를 데리고 왔습니다.
전통적인 프로그래밍은 개발자가 if ... else ... 구문을 이용해서 일일이 개와 고양이의 차이점을 미리 짜두어야 합니다. 개는 하얀색이고, 고양이는 노란색이고, 개는 눈이 동그랗고, 고양이는 날렵하고... 이런 모든 조건을 프로그래머가 사전에 다 조건문으로 입력을 해야겠지요.
그런데 얼추 생각해도 큰 문제가 있습니다. 개는 하얀색이라는 조건으로 프로그램을 짜두었는데, 노란색 개 사진이 들어오면 이 프로그램은 개를 고양이로 판단하겠지요. 전통적 프로그래밍에서는 프로그래머가 짜 둔 논리구조에서 벗어나는 일이 생기면 헬게이트가 열립니다. 개와 고양이를 구분하는 것만 해도 뭔가 아주 까다롭게 느껴집니다.
머신러닝은 일단 개 사진을 주르륵 넣고, 고양이 사진을 주르륵 넣습니다. 그리고 컴퓨터가 사진을 학습하도록 합니다. 그리고 학습된 친구에게 이게 고양이냐 개냐 물으면서 정확도가 어느 정도인지 확인해 나갈 수 있습니다.
스마트폰 이후에 폼팩터 혁신이 없습니다. 개인적으로는 공기중에 띄우는 홀로그램이 다음 폼팩터가 될 것이라고 생각합니다. 그러나 디스플레이 쪽에서 일하는 현업자들의 이야기를 들으면 아직은 공상과학 소설에 불과하다고 합니다.
LLM을 학습할 때 가장 필요했던 하드웨어가 GPU였다면, RAG를 활용하기 위해 데이터를 저장해야 한다면 NVMe 인터페이스를 가진 SSD가 가장 많이 필요하지 않나 하는 생각이 들었습니다.
데이터를 쉽게 꺼내쓰려면 기존의 SQL과 같이 정형화 된 데이터베이스 보다는 벡터데이터베이스가 적합합니다. 이 과정에서 필요한 것이 벡터데이터베이스, 벡터임베딩, 그리고 빠른 네트워크 속도와 SSD입니다.
벡터데이터베이스 회사로는 Pinecone이 주목을 받고 있습니다.
SSD는 RAG 시대로 가면 갈수록 많이 필요할 것이라고는 생각하는데, 아직 수요가 얼마나 될지, 단가는 얼마나 될지, 그리고 연간 시장 규모는 얼마나 될지, 그리고 이 중에서 가장 투자할 만한 회사는 무엇일지 여부는 아직 리서치 중에 있습니다. 아이디어가 유효하고, 괜찮은회사를 발견하면 이 부분은 추후에 자료를 만들어서 공유하겠습니다. 아이디어가 시원찮거나 제가 뭘 발견하지 못했다면 그냥 조용히 지나가는 것으로 생각해 주세요.
그 다음이 특정 도메인에 특화된 RAG 서비스들입니다. 실시간으로 정보를 빠르게 사용해야 하는 곳에 적합한데, 고객지원 챗봇, 병원과 법률 서비스, 넷플릭스 영화 추천 서비스 등 다양한 곳에서 활용이 가능할 것이라고 생각합니다.
LLM이 아직 할 수 없는 것(행동, 실행) - 2025년 6월 작성
| 사진 : 송종식 |
챗GPT와 같은 LLM에게 '이번주 오사카 여행 계획을 짜줘'라고 요청하면, 챗GPT는 오사카에서 갈만한 맛집과 여행동선, 그리고 주의사항을 쭈욱 정리해서 알려줍니다.
그런데, 비행기 티켓을 알아서 예약해 주거나, 호텔을 예약해 주거나, 동선에 있는 곳들 중 필요한 곳의 밥집이나 미술관 예약을 해주거나 직접 뭔가를 '행동'하는 것은 하지 못합니다.
위에 첨부한 이미지를 보시면 제가 그록에게 '이번주에 내 일정을 정리해서 음성으로 읽어줘'라고 부탁했습니다. 그러나 그록이 제 구글 캘린더에 접근하지 못하기 때문에 저 요청은 대응을 해줄 수가 없습니다.
에이전트간 통신 프로토콜 (API vs. MCP) - 2025년 6월 작성
| 자료 : 송종식 |
기존의 앱이나 웹은 클라이언트-서버 간 통신을 할 때 API라는 인터페이스를 사용합니다. 쉽게 말씀드리면 제가 네이버를 쓸 때, 사용하는 스마트폰과 네이버에 있는 네이버 서버와 통신할 때 사용하는 통신 규약이라고 생각하면 됩니다.
기존의 API는 개발자가 만들어 준 기능만 쓸 수 있었습니다. '로그인을 한다', '로그아웃을 한다', '검색을 한다', '검색결과를 보여준다'와 같이 데이터를 서로 주고 받고 할 때 하나의 기능만 단방향으로 주고 받을 수 있었습니다. 그리고 그 API들은 기획자와 개발자가 다 만들어 놓고, 사용자는 그 틀 안에서만 서비스를 쓸 수 있었습니다.
API로는 다음과 같은 단방향 작업이 가능합니다. 저의 스마트폰에서 네이버에 검색어를 보냅니다. 그러면 네이버 서버에서는 그걸 받아서 백엔드에서 처리한 후 다시 API를 통해서 저의 스마트폰으로 보내줍니다. 그러면 저는 검색결과를 받아볼 수 있겠지요. 제가 네이버에 '내일 아침 오사카 항공권 시간'이라는 검색어를 보냈다고 해서 네이버가 여러 여행 에이전트를 돌면서 저에게 가장 유리한 항공권을 찾아서 예매해주고, 그리고 그 이후에 호텔도 알아서 예약해주고 이렇게 다중 작업을 하는 것은 불가능합니다. 물론, 개발자가 억지로 기능을 만들면 되기야 하는데, 기존 API 방식의 가장 큰 맹점은 다음과 같습니다.
대형 에이전트 하나를 구축하였다고 할 경우,
사용된 LLM 수 : 5개,
사용된 에이전트 수 : 50개라면,
하나의 기능을 구현하는 API만 해도 250개를 만들어야 합니다. 보통 서비스 하나를 만들 때 API 명세를 보면 적으면 수십개에서 많으면 수천개 수 만개의 기능이 만들어 집니다. 얼마나 비효율적인지 알 수 있습니다.
반면, MCP는 API와 달리 여러 에이전트 간, 그러니까 다중에이전트간 통신이 가능합니다. 그리고 API처럼 특정한 기능에 대한 명세가 있어야 작동하는 것이 아니라 자연어 기반으로 작동하기 때문에 에이전트가 필요한 것들을 알아서 처리할 수 있습니다.
AI에이전트 간 표준 프로토콜이 있다면 위의 API의 경우처럼 큰 삽질을 하지 않아도 됩니다. 에이전트 간 통신을 위해서 표준 프로토콜로 앤트로픽에서 만든 MCP를 채택하자는 목소리가 주류이긴 하지만 아직 확실한 것은 없는 상태입니다. 구글에서도 A2A라는 프로토콜을 내놨고, 에이전트간 통신을 위한 프로토콜은 정말 많이 나온 상태입니다. 나중에 어떤 프로토콜이 표준이 될지는 모르지만 현재는 MCP가 가장 주목을 받고 있습니다. 이 프로토콜을 가진 회사가 이것으로 직관적인 수익모델을 만들기는 어렵겠지만 상당한 수준의 헤게모니는 가져갈 수 있을 것으로 생각합니다.
위의 그림에서는 텔레그램으로 들어 온 이용자 문의에 간단하게 대응하는 AI에이전트의 예시입니다.
텔레그램에 고객문의가 들어오면(트리거), 이를 벡터DB에서 관련 내용을 검색한 후에, LLM에서 답변 문장을 생성해서 팀의 슬랙에 자동으로 등록하고, 문의를 한 고객에게 자동으로 답변을 해주는 간단한 AI에이전트를 그림으로 표현한 것입니다. 이때 LLM과 에이전트간 통신을 할 때 사용하는 규약이 MCP입니다.
에이전트 워크플로우 (2025년 6월 작성)
| 자료 : 송종식 |
LLM에는 질문과 답변만 받을 수 있었지만 AI워크플로우를 구성해서 직접적인 실행과 행위를 하는 에이전트를 구성할 수 있습니다.
프로그래밍을 하시는 분들은 프로그래밍을 이용해서 하시면 되고, 프로그래밍을 못하시는 분들도 make, n8n, LangGraph의 서비스들을 이용해서 에이전트 워크플로우를 구성할 수 있습니다.
make나 n8n을 통한 업무 자동화를 많이들 하는 것으로 보이고요, 해당 툴들의 사용법은 유튜브를 조금만 찾아보셔도 나옵니다.
여기서 중요한 것은 이 AI에이전트 워크플로우를 구성하는 것도 사람이고, 중간중간에 필요한 것들도 사람이 다 설정을 해두어야 한다는 점입니다. 그러면 AI에이전트는 우리가 만들어 놓은 워크플로우 안에서 필요한 행위들을 하게됩니다.
위의 그림의 경우에는 메신저로 뭔가 채팅이 들어오면 AI Agent에서 이것저것 처리해서 참과 거짓값을 판별하고, 참이냐 거짓이냐에 따라서 분기처리해서 슬랙에 전송하는 에이전트로 보입니다.
| 자료 : 아마존 |
첫 번째 이미지는 감독자 기본의 에이전트 워크플로우 방법론이고, 두번째 이미지는 이벤트 기반의 에어진트 워크플로우 방법론입니다.
두 방법론은 동작 방식에서 약간의 차이가 있습니다. 프로세스의 복잡도와 목적에 따라서 결정하면 될 일입니다. 일단 주목할 부분은 여행 계획 에이전트 아래에 각자의 목적성을 가진 또 다른 에이전트들이 존재하는 것을 볼 수 있습니다. 항공권만 예약해주는 에이전트, 호텥부킹을 해주는 에이전트, 놀거리를 예약해주는 에이전트, 그리고 차량 렌트를 해주는 에이전트가 있고, 이들의 업무를 망라해서 여행 계획 에이전트가 모든 에이전트들과 조율(오케스트레이션)하면서 하나의 여행 계획을 완성해주는 여행 계획 및 티켓팅 에이전트가 됩니다.
읽어보기 :
Amazon Bedrock을 사용하여 비동기 AI 에이전트 만들기(영문)
https://aws.amazon.com/ko/blogs/machine-learning/creating-asynchronous-ai-agents-with-amazon-bedrock/ (아마존)
이해하기 쉽게 제가 여행 에이전트를 하나 만들었다고 해보겠습니다.
"6월 25일 오전에 출발해서, 7월 1일 밤에 돌아올거야. 이왕이면 국적기를 탔으면 좋겠어. 동 시간대에 가장 저렴한 좌석들이 나오면 알아서 예약해주고, 일본에 있는 호텔은 도톰보리 시내에서 걸어서 10분 안에 있는 곳 3~4성급 호텔이면 좋겠어. 침대는 하나만 있으면 되고, 제일 싸고 괜찮은 곳으로 알아서 예약해줘. 모텔급 퀄리티로 내려가면 안돼. 그리고 머무는 동안 밥 먹을 곳도 찾아서 예약이 되는 곳은 예약해주고 아닌 곳은 그냥 알려줘"
이렇게 에이전트에게 시켜놓았을 때, 앞서 사람이 워크플로우를 손으로 일일이 짜던 것과 뭐가 다를까요. AI에이전트는 제가 정해 놓지 않아도 자기가 알아서 의사결정을 합니다. 더 나은 의사결정을 할 수 있으면 기존 의사결정을 버리기도 하고, 다른 에이전트들과 통신하면서 스스로 추론하고 판단합니다. 그리고 끝에 가서는 필요한 티켓을 모두 예매해두고 저에게 보고하는 실행 과정까지 마치게 됩니다.
고객들에게 이메일 문의가 들어오면 자동으로 답장을 해주는 에이전트도 만들 수 있겠습니다. 이건 제가 요청하지 않아도 알아서 계속 작동하게 해둘 수 있습니다.
고객에게 메일 문의가 들어 옴 -> 벡터DB에서 제가 할법한 내용들을 꺼내서 -> LLM에서 답변 메일을 생성하고 -> 고객에게 자동으로 답장할 수 있습니다.
제 블로그와 텔레그램, 그리고 저의 유튜브 등을 통해서 제가 했을 법한 이야기들을 미리 학습해두고 꺼내서 답장하는 방식입니다.
이러면 고객응대를 하는 직원을 뽑을 필요없이 AI에이전트가 직원 한명의 몫을 할 수 있습니다. 저는 일일이 메일 답장을 하지 않아도 됩니다.
요즘 이런식으로 블로그에 글을 올리거나, 뉴스레터를 쓰는 분들도 많으신 듯 합니다. 가령, 전날밤에 있었던 뉴스들을 에이전트가 알아서 추려서, 우리 구독자들이 좋아할만한 기사의 내용을 요약해서 매일 아침 8시에 레터 형식으로 뿌려주는 에이전트입니다.
덧. 제가 아침마다 보내드리는 뉴스레터도 AI에이전트를 만들어서 보낼 수 있습니다만, 저는 그렇게 하고 있지 않습니다. 저는 형들에게 쓰는 글은 심장에 담아서 한 글자 한 글자 타이핑해서 다 쓰고 있습니다. 또 저는 그렇게 해야 맞다고 생각하고 있습니다.
AI AGENT
| 자료 : 송종식 |
나온지는 좀 된 개념인데, 기존의 LLM이 추론과 행동을 별도로 연구하던 것에 반해 이것을 상호보완적으로 결합하자는 패러다임을 제시한 'ReAct'라는 개념입니다. 페이스북에서 만든 프론트엔드 라이브러리인 리액트와 다릅니다^^;
리액트 방법론에 따르면 에이전트가 '추론->행동->관찰->추론' 과정을 반복하면서 행동에 대한 계획을 세우고 그것을 조정하는 과정을 거치며, 외부와 연결되어서 새로운 정보를 가져오기도 합니다. 이를 통해서 AI가 사고의 연속성을 가지게 되고 외부 정보도 활용하는 등 더 높은 성능을 구현할 수 있다는 방법론입니다.
아래 논문은 굳이 보실 필요는 없는데, 관심 있으신 형들은 한번 살펴보세요.
- REACT 논문 : https://arxiv.org/pdf/2210.03629
- CoT 논문 : https://arxiv.org/pdf/2201.11903
현재 ReAct 에이전트는 이론상 강력하지만 실패했다는 이야기도 나오고 있고, 다음 세대 에이전트는 이보다 조금 더 엄격한 방향으로 통제하고 설계되는 방향으로 가고 있습니다.
💵 어디가 돈이 될까..? (2025년 6월)
투자를 하거나 사업을 한다면 어디를 봐야할지 한번 간략하게 생각을 해보았습니다.
🎻 AI Agent 워크플로우 자동화 툴, 오케스트레이션 도구
현재 범용 서비스 중에서 유명한 서비스로는 Make, n8n 같은 도구들이 있습니다. 조금 편하게 업무 자동화를 하거나 필요한 사람들에게 유료로 서비스를 판매할 수 있겠습니다.
🎨 특정 도메인 특화 RAG 또는 버티컬 AI Agent
위의 그림에 왼쪽 영역에 해당하는 서비스들입니다. 말 그대로 온갖 것들이 나올 수 있습니다. 이미지의 배경을 제거해 주는 서비스도 버티컬 AI라고 할 수 있고, 최근에 시가총액 5조 원을 돌파한 Canva와 같은 서비스는 PPT를 그려주는 AI 에이전트입니다. 정말 다양한 기업들이 쏟아져 나오고 있고, 앞으로도 더 그럴 것입니다.
🔡 LLM은 당연히..
에이전트 시대에도 LLM은 당연히 가장 중요합니다. 물론 각 개인이나 조직이 구축해서 쓰는 LLM이나 SLM들은 버티컬 서비스로 성장할 수 있겠지만, 특정 범용 LLM 모델이 시장을 장악하고 나면 검색시대에 구글이 누렸던 지위를 누릴 수 있을 것입니다. 누가 그렇게 될지도 면밀히 잘 보면 좋겠네요.
🧠 Memory(Short/Long)
챗GPT 같은 것을 써 보시면 아시겠지만 잠깐 잠깐 직전에 대화 했던 내용들을 기억합니다. 그리고 롱텀메모리는 갈수록 중요해지리라 생각합니다. LLM쪽에서는 RAG를 활용하고 벡터DB에 데이터를 담는 데이터가 늘어나면서, 그리고 AI AGENT는 이용자에 대한 다양한 정보들을 갖고 있기 위해서 SSD의 필요성이 더 증가할 것이라고 생각합니다. HBM과 디램은 이미 노출된 아이디어인데, SSD는 상대적으로 시장에 덜 노출된 아이디어 같아서 이게 실제로 돈이 될지 안될지 한번 파보려고 합니다. 공부가 어느 정도 되어서 특이점이 발견되면 추후에 공유하겠습니다.
⚡️ 인프라
당연히 더 많은 데이터센터가 계속해서 필요하고, 더 많은 전기가 계속해서 필요합니다. 인프라와 에너지 부분도 꾸준히 봐야하는 이유입니다.
부록) 전통적인 프로그래밍 vs. 머신러닝의 가장 큰 차이
| 자료 : 송종식 |
개와 고양이를 구분해야 하는 프로그램을 만든다고 칩시다. 이걸 AI 공부하는 극초반에 가장 많이 사용하는 사례라서 저도 개와 고양이를 데리고 왔습니다.
전통적인 프로그래밍은 개발자가 if ... else ... 구문을 이용해서 일일이 개와 고양이의 차이점을 미리 짜두어야 합니다. 개는 하얀색이고, 고양이는 노란색이고, 개는 눈이 동그랗고, 고양이는 날렵하고... 이런 모든 조건을 프로그래머가 사전에 다 조건문으로 입력을 해야겠지요.
그런데 얼추 생각해도 큰 문제가 있습니다. 개는 하얀색이라는 조건으로 프로그램을 짜두었는데, 노란색 개 사진이 들어오면 이 프로그램은 개를 고양이로 판단하겠지요. 전통적 프로그래밍에서는 프로그래머가 짜 둔 논리구조에서 벗어나는 일이 생기면 헬게이트가 열립니다. 개와 고양이를 구분하는 것만 해도 뭔가 아주 까다롭게 느껴집니다.
머신러닝은 일단 개 사진을 주르륵 넣고, 고양이 사진을 주르륵 넣습니다. 그리고 컴퓨터가 사진을 학습하도록 합니다. 그리고 학습된 친구에게 이게 고양이냐 개냐 물으면서 정확도가 어느 정도인지 확인해 나갈 수 있습니다.
📱 폼팩터의 혁신은 의외로 AI 에이전트 덕분에? (2025년 6월)
스마트폰 이후에 폼팩터 혁신이 없습니다. 개인적으로는 공기중에 띄우는 홀로그램이 다음 폼팩터가 될 것이라고 생각합니다. 그러나 디스플레이 쪽에서 일하는 현업자들의 이야기를 들으면 아직은 공상과학 소설에 불과하다고 합니다.
어쨌든 AI Agent 시대가 열리면서 뜬금없이 AI 혁신 덕분에 폼팩터가 변할 껀덕지(?)가 있다고 생각하고 있습니다.
현재 우리가 쓰는 웹사이트, 웹앱, 앱, 소프트웨어는 UI가 고정되어 있습니다. 이미 기획자, 디자이너, 개발자가 단단한 틀을 만들어 놓습니다. 이용자인 저희는 그 틀안에서만 놉니다.
그런데 챗GPT 같은 도구만 봐도 그 반대입니다. 우리가 뭘 물어보면 UI가 자동으로 생성되어 나옵니다. 필요하면 버튼이나 텍스트 필드도 나오고, 테이블도 나오고, 헤드라인과 서브 텍스트도 나옵니다.
이 부분도 전통적 프로그래밍과 머신러닝의 차이만큼이나 발상의 전환을 가져왔습니다. 이미 만들어진 UI가 아니라, 필요에 따라서 컴퓨터가 그에 맞는 UI를 우리에게 제공합니다.
혹자는, 말했습니다. '앞으로 컴퓨터 UI는 채팅창 하나만 남을 것이다'라고요. 어떤 사람은 여기서 더 나아가 '앞으로 모니터가 없어질 수도 있다'고 말했습니다. 정말로 점점 그렇게 될 수도 있겠다 싶습니다. 아주 먼 미래의 일이지만 이런 방향으로 가면서 의외로 스마트폰 이후의 폼팩터 변화에 대한 답을 이쪽에서 찾을수도 있겠다는 생각도 불현 듯 들었습니다.
🤖 앱의 시대에서 에이전트의 시대로
사실 아직 AI Agent 시대는 제대로 열리지는 않았습니다. 아직 기술적으로 가야 할 길도 멀고 어설프기 짝이 없습니다. 모든 업무에 전면적으로 도입하기에도 리스크가 큽니다. 하지만 AI Agent 시대로 빠르게 달려가고 있는 것은 사실입니다.
어렵게 생각할 것이 아니라 '에이전트 = 앱'이렇게 생각하는 게 이해하시기 편하실 것 같습니다. 모바일앱, 웹베이스의 앱, 운영체제에서 돌아가는 앱 다양한 응용프로그램과 앱의 시대에서 AI Agent 시대로 넘어가고 있습니다.
👨🏻🔧 인건비 비중이 높은 회사는 장기적으로 득
아까 투자할 부분 찾아보자는 부분에서 놓친 부분이 있습니다. 다양한 AI Agent가 실제 산업환경에서 쓸 수 있게 되면 인건비 비중이 높은 회사가 영업이익률을 개선하는데 크게 도움을 받을 수 있을 것입니다. 사람들의 실적이 늘어나는 것은 다른 이야기지만 일단은 그렇습니다. 모두가 다 아는 이야기이겠지만 기록 차원에서 남겨봅니다.
첨부해 드리는 자료는 시간이 조금 흐른 자료이지만 지금도 다르지 않다고 생각합니다. 서비스 직군 위주로 타격을 많이 받는 듯 합니다. 재작년에도 은행권 콜센터에 근무하시는 분들의 업무가 챗봇으로 교체되면서 대거 실직한 사례가 있었고, 앞으로 그런 사례는 더더욱 자주 보게 될 것입니다.
💵 Agentic AI 분야는 아직 어설프지만 이제 시작하는 분야, 투자 포인트 요약? (2025년 6월)
| 자료 : 송종식 |
- SSD가 더 많이 필요할 것이다 (이미 얼마나 쓰고 있는지, 앞으로 얼마나 필요할지는 조사 안해 봄)
ㄴ 의외로 별 포인트가 아닐수도 있음… 시간되면 찾아볼게요.
- DRAM도 당연히 더 많이 필요하다.
- Pinecone과 같은 벡터데이터베이스 회사들은 이미 상당한 주목을 받고 있다.
- 특화된 부분은 RAG 서비스나, 버티컬 AI AGENT를 만드는 회사들의 러시가 있을 수 있다.
- MCP 프로토콜은 최종적으로 업계 표준이 될 수 있을것인가…?
- LLM 모델은 OS처럼 밑단에 깔리게 될텐데 최종 승자는 누가될 것인가?
- LLM 성능도 좋아지고, AI AGENT도 이상적으로 구현되는 수준이 온다면 우리들의 일자리는 무사할 것인가? ㄷㄷㄷ
- 전기는 앞으로도 더 많이 필요하겠다.
구글과 같은 서비스들의 검색 부문은?
1) 퍼플렉시티 같은 애들이 자체 크롤러의 성능을 높이며 경쟁력이 약화될까?
2) 구글이 제미나이만 편애하면서 다른 LLM 서비스들의 RAG 성능을 약화시킬까?
3) 다른 LLM이나 AI AGENT들이 구글에 비용을 지불하고 크롤러를 사용할까?
RAG는 2년 전에 잠깐 관심을 끌었고, 에이전트는 작년에 주목을 받았습니다. 아직 주식시장에서는 별로 노출된 이야기들은 아닌데요. AI씬에서는 좀 늦은 이야기일 수 있지만 시장에서는 유의미한 결과를 얻을 가능성도 있으니 꾸준히 같이 공부해 보면 좋겠습니다.
🇰🇷 한국 관련 짧은 코멘트
이번 정부는 AI에 관심이 아주 많습니다. AI관련해서 뽑은 사람들도 나름대로 괜찮은 사람들인 듯 합니다.
시장에서는 벌써부터 AI만 묻으면 주가가 날아가는 현상이 생기고 있습니다.
여기서 저는 이렇게 코멘트를 드리고 싶습니다.
1) "펀더멘털을 중시하시는 분들"이라면 한국 기업에 대한 매수는 자제하시고, 2) "한국 주식 시장은 펀더멘털이나 사실 같은 건 중요하지 않고 일단 남들이 가즈아 외칠 때 올라타서 매매하고 나와야 한다"고 생각하시면서 트레이딩도 기막하게 하시는 분들은 AI키워드로 각자 알아서 매매를 해보셔도 무방할 듯 합니다.
그럼 우리나라에서 AI 경쟁력은 아예 없냐고 하면 그건 또 아닙니다. 우리나라도 나름대로 인재들이 있고 경재력도 조금은 있습니다. 그런데 미국 빅테크들이 하려는 걸 하면 안된다고 생각하고 있습니다.
한국이 잘 할 수 있는 분야는 1) 각 분야에 특화된 버티컬 AI기술이나 서비스, 2) 한국의 산업에 특화된 AI 기술이나 서비스, 그리고 3) 우리 정부나 기업들만 갖고 있는 프라이빗한 데이터셋을 해자로 하는 서비스 정도가 있다고 생각합니다. 이 쪽에서는 잘 찾아보면 텐베거 기업이 나와줄지도 모르겠습니다. 과거에 의료AI 회사들이 이 내러티브로 장기간 상승세를 구가했던 적도 있는 것으로 알고 있습니다.
이상으로 AI에이전트 훑어보기와 관련된 부분들에 대한 잡담을 마칩니다. 편안한 저녁 되세요! 아침부터 틈틈이 글을 썼는데, 벌써 밤이 되었네요. 안녕히 주무세요~
SSD 시장 러프하게 살펴보기 (2025년 6월)
며칠전에 했던 AI Agent 공부 후속 자료들입니다. AI Agent 시대로의 변화, 다양한 LLM 모델들의 등장 그리고 요즘 메타가 시장 주도권을 잡기 위해 힘을 쓰고 있는 궁극적인 AGI 등 어떤 방향으로 가도 GPU, TPU, 전력공급망, 더 빠른 인터넷 네트워크, 냉각장치 그리고 SSD와 같은 스토리지에 대한 투자는 늘어날 수 밖에 없습니다. 저는 상대적으로는 관심을 덜 받고 있는 SSD에 관심을 갖고 지켜보고 있습니다. 일단은 이쪽에 대한 공부를 얕게 수박 겉핥기식으로 조금씩 접근하고 있습니다. 제가 보고 있는 부분들을 간단한 자료를 만들어서 공유해 드립니다.
글로벌 SSD 시장에 대한 전망은 추정하는 곳 마다 조금씩 데이터가 다 다릅니다. CAGR 추정치가 쎈 곳은 35%로 추정하는 곳도 있고, 어떤 곳은 19%를 추정하는 곳도 있습니다. 하지만 누구든 미래 시장규모나 성장률을 정확하게 추정하는 것은 당연히 불가능합니다. 그러므로 정확한 숫자보다는 방향성만 체크하면 될 듯 합니다. 어떤 리서치 자료를 찾아봐도 그렇고, 제 짧은 생각으로도 속도는 추정치마다 다를 수 있어도 방향성은 어느 정도 우상향하는 방향으로 가리라고 생각합니다.
SSD 제품별로, 사용하는 부품별로 원가 구조는 모두 다릅니다. 시세도 등락이 있습니다. 그리고 최신의 정보를 반영하고 있지는 않지만 가급적 러프하게라도 SSD 원가 구조를 표현하기 위해서 그려 본 장표입니다. 정확한 숫자보다는 'SSD에 들어가는 핵심 부품은 이런것들이 있고, 원가는 이 정도 하는구나' 정도로만 눈에 익혀 주시면 될 듯 합니다.
위의 장표에서 SSD 가격 97,000원에는 SSD업체의 유통마진은 빠져있습니다. SSD의 판매 유통 마진은 20~35% 정도가 더 붙는다고 보시면 될 것 같습니다.
플래터가 얼마나 빠르게 돌아가느냐가 핵심이었던 하드디스크(HDD)와 달리 SSD는 그런 물리적 장치 없이 낸드가 핵심 중 핵심입니다. SSD 부품 원가 중에서 낸드가 차지하는 비중이 70~80% 정도 됩니다. 따라서, SSD 투자 아이디어를 찾는다면 일단은 낸드 쪽을 봐야한다는 심플한 결론에 도달합니다. 글로벌 낸드 시장의 최강자는 삼성전자입니다. 그 다음 하이닉스가 낸드 맛집이고, 마이크론, 키옥시아 등의 기업들이 각축전을 벌이고 있습니다.
그 다음이 컨트롤러입니다. 컨트롤러의 원가비중은 10% 남짓입니다. 최근에 트렌드를 보면 낸드의 원가가 소폭 줄어드는 동안, 컨트롤러와 펌웨어의 가격 비중이 조금씩 올라가고 있습니다. 특히, 개인용 SSD가 아닌 데이터센터용 고성능 SSD는 컨트롤러의 원가비율이 조금 더 올라갑니다. 이쪽은 삼성전자, 샌디스크, 마벨, 파두와 같은 회사들이 있습니다.
SSD에 캐시메모리가 들어가는데 우리가 아는 그 D램 맞습니다. D램이 어느 정도 들어가냐에 따라 다르겠지만 SSD에서 차지하는 원가율이 높지는 않습니다.
커넥터쪽은 인터페이스가 SATA, NVMe냐에 따라 다르긴 하겠지만 위의 장표에서는 원가율을 제가 조금 높게 쓴 듯 합니다. 4~5% 정도로 보면 될 것 같습니다.
이 부분도 궁금해서 찾아봤습니다. 빅테크들은 필요한 것들을 공수할 때 우리가 아는 가격 보다 더 싸게 구매할 수 있다고 합니다. 그래서 서버 구성을 어떻게 할지는 그네들 몫이어서 모든 수치가 정확하지는 않습니다. 이 부분도 대충 러프하게 '이 정도 들어가는구나' 정도의 관점으로만 읽어 주시면 감사드리겠습니다.
보통 AI서버 한대에 8~16개 정도의 SSD 슬롯이 장착되는 게 일반적이라고 합니다. AI 서버는 일반적인 엔터프라이즈 서버와 구성이 조금 다르고 SSD도 조금 더 많이 꽂힙니다.
보통 SSD 한개에 15TB에서 61TB 사이를 많이 쓰는 듯 합니다. 삼성에서 200TB가 넘는 제품이 나와 있기는 합니다. 그렇다면 AI 서버 한대당 장착되는 SSD의 용량은 얼추 120TB에서~976TB 정도가 되는 것으로 보입니다.
소비자용 SSD의 가격을 찾아 보니 1TB에 13~25만 원 정도가 일반적인 듯 합니다. 그리고 데이터센터에서 엔터프라이즈용으로 쓰는 제품들은 일반 소비자용보다 조금 더 비쌉니다. 성능도 더 향상되어야 하고, 읽기 쓰기량이 훨씬 많다 보니 내구성도 좋아야 하기 때문입니다. (그럼에도 불구하고 통상 빅테크에 들어가는 SSD는 2~3년 주기로 교체하는 것으로 알려짐)
엔터프라이즈/서버용 SSD의 단가는 1TB에 30~60만 원, 6TB에 200~400만 원, 61TB는 2000~3000만 원 정도의 가격이 형성된 것으로 보입니다. 그럼 빅테크의 AI서버용으로 쓰는 SSD는 서버 1대당 대략 7,200만 원에서 4.8억 원 정도가 들어가는 것으로 추정됩니다. 정확하지는 않습니다.
서버에 들어가는 부품 중에서 SSD가 차지하는 비중이 원래 높지는 않지만, 스토리지가 많이 필요하다 보니 여러개를 꽂으면 저렇게 단가가 올라가는 듯 보입니다.
참고로 서버에 들어가는 부품 중에서 가장 비싼 것은 CPU이며, AI서버로 확장하면 GPU가 단위당 가격이 제일 비쌉니다.
주요 주체의 GPU 보유량입니다. GPU 보유량은 기밀로 취급되는지 정확한 데이터를 얻기가 어려웠습니다. 그리고 H100이 가장 많은 비중을 차지하는 듯 하지만 H100 외에도 다양한 형태의 GPU들을 보유하고 있는 듯 합니다. 한국은 현재는 5,000장 이상으로 수량이 늘어났을 것으로 추정됩니다.
아마존도 5만 장 이상의 GPU를 확보했을 것으로 추정되고, 구글이 상대적으로 숫자가 적은 것은 GPU보다는 구글이 자체 개발한 ASIC인 TPU 위주로 쓰고 있어서 그런 것으로 추정됩니다. 이 부분도 정확한 숫자는 우리가 알 수 없고, 각 사가 보유한 GPU규모 정도만 봐주시면 될 듯 합니다. 메타는 AGI 시대에 리더가 되겠다고 하면서 데이터 센터를 폭발적으로 늘리고 있고, 늘어나는 CAPEX에는 당연히 GPU를 더 많이 사들이겠다는 계획도 있습니다.
메타는 현재 35만 장 보다 훨씬 더 많은 GPU를 보유하고 있을 것으로 추정합니다. 다만, 최근에 대외에 노출된 팩트만으로 보면 일단은 35만 장의 GPU를 갖고 있다고 해보겠습니다. 이것으로 AI 서버를 몇대나 가지고 있는지 역산을 해보았습니다.
글로벌 SSD 시장에 대한 전망은 추정하는 곳 마다 조금씩 데이터가 다 다릅니다. CAGR 추정치가 쎈 곳은 35%로 추정하는 곳도 있고, 어떤 곳은 19%를 추정하는 곳도 있습니다. 하지만 누구든 미래 시장규모나 성장률을 정확하게 추정하는 것은 당연히 불가능합니다. 그러므로 정확한 숫자보다는 방향성만 체크하면 될 듯 합니다. 어떤 리서치 자료를 찾아봐도 그렇고, 제 짧은 생각으로도 속도는 추정치마다 다를 수 있어도 방향성은 어느 정도 우상향하는 방향으로 가리라고 생각합니다.
📦 SSD 원가구조 (러프하게)
SSD 제품별로, 사용하는 부품별로 원가 구조는 모두 다릅니다. 시세도 등락이 있습니다. 그리고 최신의 정보를 반영하고 있지는 않지만 가급적 러프하게라도 SSD 원가 구조를 표현하기 위해서 그려 본 장표입니다. 정확한 숫자보다는 'SSD에 들어가는 핵심 부품은 이런것들이 있고, 원가는 이 정도 하는구나' 정도로만 눈에 익혀 주시면 될 듯 합니다.
위의 장표에서 SSD 가격 97,000원에는 SSD업체의 유통마진은 빠져있습니다. SSD의 판매 유통 마진은 20~35% 정도가 더 붙는다고 보시면 될 것 같습니다.
플래터가 얼마나 빠르게 돌아가느냐가 핵심이었던 하드디스크(HDD)와 달리 SSD는 그런 물리적 장치 없이 낸드가 핵심 중 핵심입니다. SSD 부품 원가 중에서 낸드가 차지하는 비중이 70~80% 정도 됩니다. 따라서, SSD 투자 아이디어를 찾는다면 일단은 낸드 쪽을 봐야한다는 심플한 결론에 도달합니다. 글로벌 낸드 시장의 최강자는 삼성전자입니다. 그 다음 하이닉스가 낸드 맛집이고, 마이크론, 키옥시아 등의 기업들이 각축전을 벌이고 있습니다.
그 다음이 컨트롤러입니다. 컨트롤러의 원가비중은 10% 남짓입니다. 최근에 트렌드를 보면 낸드의 원가가 소폭 줄어드는 동안, 컨트롤러와 펌웨어의 가격 비중이 조금씩 올라가고 있습니다. 특히, 개인용 SSD가 아닌 데이터센터용 고성능 SSD는 컨트롤러의 원가비율이 조금 더 올라갑니다. 이쪽은 삼성전자, 샌디스크, 마벨, 파두와 같은 회사들이 있습니다.
SSD에 캐시메모리가 들어가는데 우리가 아는 그 D램 맞습니다. D램이 어느 정도 들어가냐에 따라 다르겠지만 SSD에서 차지하는 원가율이 높지는 않습니다.
커넥터쪽은 인터페이스가 SATA, NVMe냐에 따라 다르긴 하겠지만 위의 장표에서는 원가율을 제가 조금 높게 쓴 듯 합니다. 4~5% 정도로 보면 될 것 같습니다.
🗒 AI 서버 한대당 탑재되는 SSD의 양은? (2025년 여름 현재)
이 부분도 궁금해서 찾아봤습니다. 빅테크들은 필요한 것들을 공수할 때 우리가 아는 가격 보다 더 싸게 구매할 수 있다고 합니다. 그래서 서버 구성을 어떻게 할지는 그네들 몫이어서 모든 수치가 정확하지는 않습니다. 이 부분도 대충 러프하게 '이 정도 들어가는구나' 정도의 관점으로만 읽어 주시면 감사드리겠습니다.
보통 AI서버 한대에 8~16개 정도의 SSD 슬롯이 장착되는 게 일반적이라고 합니다. AI 서버는 일반적인 엔터프라이즈 서버와 구성이 조금 다르고 SSD도 조금 더 많이 꽂힙니다.
보통 SSD 한개에 15TB에서 61TB 사이를 많이 쓰는 듯 합니다. 삼성에서 200TB가 넘는 제품이 나와 있기는 합니다. 그렇다면 AI 서버 한대당 장착되는 SSD의 용량은 얼추 120TB에서~976TB 정도가 되는 것으로 보입니다.
소비자용 SSD의 가격을 찾아 보니 1TB에 13~25만 원 정도가 일반적인 듯 합니다. 그리고 데이터센터에서 엔터프라이즈용으로 쓰는 제품들은 일반 소비자용보다 조금 더 비쌉니다. 성능도 더 향상되어야 하고, 읽기 쓰기량이 훨씬 많다 보니 내구성도 좋아야 하기 때문입니다. (그럼에도 불구하고 통상 빅테크에 들어가는 SSD는 2~3년 주기로 교체하는 것으로 알려짐)
엔터프라이즈/서버용 SSD의 단가는 1TB에 30~60만 원, 6TB에 200~400만 원, 61TB는 2000~3000만 원 정도의 가격이 형성된 것으로 보입니다. 그럼 빅테크의 AI서버용으로 쓰는 SSD는 서버 1대당 대략 7,200만 원에서 4.8억 원 정도가 들어가는 것으로 추정됩니다. 정확하지는 않습니다.
서버에 들어가는 부품 중에서 SSD가 차지하는 비중이 원래 높지는 않지만, 스토리지가 많이 필요하다 보니 여러개를 꽂으면 저렇게 단가가 올라가는 듯 보입니다.
참고로 서버에 들어가는 부품 중에서 가장 비싼 것은 CPU이며, AI서버로 확장하면 GPU가 단위당 가격이 제일 비쌉니다.
📦 부록) 주요 주체의 GPU 보유량 (2025년 여름 현재)
주요 주체의 GPU 보유량입니다. GPU 보유량은 기밀로 취급되는지 정확한 데이터를 얻기가 어려웠습니다. 그리고 H100이 가장 많은 비중을 차지하는 듯 하지만 H100 외에도 다양한 형태의 GPU들을 보유하고 있는 듯 합니다. 한국은 현재는 5,000장 이상으로 수량이 늘어났을 것으로 추정됩니다.
아마존도 5만 장 이상의 GPU를 확보했을 것으로 추정되고, 구글이 상대적으로 숫자가 적은 것은 GPU보다는 구글이 자체 개발한 ASIC인 TPU 위주로 쓰고 있어서 그런 것으로 추정됩니다. 이 부분도 정확한 숫자는 우리가 알 수 없고, 각 사가 보유한 GPU규모 정도만 봐주시면 될 듯 합니다. 메타는 AGI 시대에 리더가 되겠다고 하면서 데이터 센터를 폭발적으로 늘리고 있고, 늘어나는 CAPEX에는 당연히 GPU를 더 많이 사들이겠다는 계획도 있습니다.
♾️ 메타의 AI서버 보유량 추정 (2025년 여름)
메타는 현재 35만 장 보다 훨씬 더 많은 GPU를 보유하고 있을 것으로 추정합니다. 다만, 최근에 대외에 노출된 팩트만으로 보면 일단은 35만 장의 GPU를 갖고 있다고 해보겠습니다. 이것으로 AI 서버를 몇대나 가지고 있는지 역산을 해보았습니다.
상용 서버의 경우 보통은 서버 1대당 4~8개 정도의 GPU가 탑재됩니다. 그러나 메타는 고밀도 서버를 쓰고 있을 것으로 추정되어 8~16개의 GPU를 장착할 수 있다고 추정을 해보았습니다. 그렇다면 GPU 35만 장 기준으로는 21,875대에서 43,750대 정도의 AI 서버를 갖고 있을 것으로 추정해볼 수 있습니다. 일반 웹서버를 포함해서 메타가 보유한 서버는 모두 150만 대 이상이 될 것으로 추정됩니다.
보유한 서버 대수나, 서버의 구성, 스펙 등은 회사의 기밀로 취급하는 듯 합니다. 자료를 구하기가 어렵고, 궁여지책으로 이 정도 추정밖에 해볼 수 없었습니다. 이 정도 추정을 통해서 메타 1개사에만 어느 정도의 SSD/HDD 스토리지가 필요한지도 대략적으로 추정해 볼 수 있습니다.
대충 SSD와 낸드가 어느 정도 필요할지, 방향성 정도는 추정을 해보았습니다. 그래서 이제는 실질적으로 투자할 만한 회사와, 언제쯤 투자가 가능할지 정도를 살펴보고 있습니다.

글로벌 낸드 시장에서 가장 큰 점유율을 가진 곳은 삼성전자입니다. 최근 점유율이 소폭 감소했지만, 글로벌 시장에서 압도적 1위입니다. 그러나 보시다시피 전사 매출액에서 낸드가 차지하는 비중이 너무 적습니다. 누군가는 하이닉스 매출 중 낸드 비중이 엄청 올라갈 때 까지 하이닉스를 투자하면 되는 게 아니냐라고 말하지만 그것도 현실적으로 어려운 듯 합니다.

보유한 서버 대수나, 서버의 구성, 스펙 등은 회사의 기밀로 취급하는 듯 합니다. 자료를 구하기가 어렵고, 궁여지책으로 이 정도 추정밖에 해볼 수 없었습니다. 이 정도 추정을 통해서 메타 1개사에만 어느 정도의 SSD/HDD 스토리지가 필요한지도 대략적으로 추정해 볼 수 있습니다.
🏢 SSD, 낸드 관련 회사 찾아보기 (2025년 6월 기준)
대충 SSD와 낸드가 어느 정도 필요할지, 방향성 정도는 추정을 해보았습니다. 그래서 이제는 실질적으로 투자할 만한 회사와, 언제쯤 투자가 가능할지 정도를 살펴보고 있습니다.
글로벌 낸드 시장에서 가장 큰 점유율을 가진 곳은 삼성전자입니다. 최근 점유율이 소폭 감소했지만, 글로벌 시장에서 압도적 1위입니다. 그러나 보시다시피 전사 매출액에서 낸드가 차지하는 비중이 너무 적습니다. 누군가는 하이닉스 매출 중 낸드 비중이 엄청 올라갈 때 까지 하이닉스를 투자하면 되는 게 아니냐라고 말하지만 그것도 현실적으로 어려운 듯 합니다.
저희 구독자 중에 하이닉스 낸드쪽 일하는 분이 계셔서 고견을 여쭈어보니, 삼성전자가 세트 만드는 기술도 있어서 가장 좋다고 하셨습니다. 낸드만 보고 투자를 해야한다면 티씨케이의 낸드 노출 비중이 높아서 티씨케이를 공부해 보는 게 어떻냐는 의견을 주셨습니다. 키옥시아가 칩 제조 기술이 좋다는 코멘트도 남겨 주셨습니다.
삼성전자에서 반도체를 만들고 있는 또 다른 구독자께서는 낸드만 본다면 하이닉스 > 마이크론 > 삼성전자 순서로 좋다는 코멘트를 주셨습니다. 이 분은 티씨케이는 개인적으로는 안 좋아한다는 의견을 남겨 주셨습니다. 삼성전자와 하이닉스가 서로를 치켜 세워주는 모습이 아름다워 보였습니다. 전문가들끼리도 투자와 관련해서는 서로 의견이 다 갈리는 상황입니다.
삼성전자에서 반도체를 만들고 있는 또 다른 구독자께서는 낸드만 본다면 하이닉스 > 마이크론 > 삼성전자 순서로 좋다는 코멘트를 주셨습니다. 이 분은 티씨케이는 개인적으로는 안 좋아한다는 의견을 남겨 주셨습니다. 삼성전자와 하이닉스가 서로를 치켜 세워주는 모습이 아름다워 보였습니다. 전문가들끼리도 투자와 관련해서는 서로 의견이 다 갈리는 상황입니다.
그리고 위 그래프에서 웨스턴디지털의 SSD 사업은 샌디스크로 분할이 되었습니다. 샌디스크는 1PB의 SSD를 개발하고 있습니다.
개인적으로는 위 회사들을 아직 제대로 다 공부해 보지는 못했습니다. 대충 '이 정도 플레이어들, 이 정도 분위기가 있다' 정도로만 읽어 주세요. 저도 조금 더 깊게 공부를 해보고 뭔가 가시적인 내용이나, 재미있는 내용이 있으면 추가적으로 공부하겠습니다. 아직은 어떤 회사에 투자를 할 단계의 리서치는 마치지 못한 상태입니다.
IDC에 따르면 현재 인간이 생성한 데이터의 규모는 175제타 바이트 정도 된다고 합니다. 1제타 바이트는 1024엑사바이트입니다. 지금도 하루에 2.5엑사바이트의 데이터가 생성되고 있습니다. 스토리지는 계속 필요하고 또 필요합니다.
1엑사바이트(EB)는 1,024 페타바이트, 다시 1페타 바이트는 1,024테라 바이트입니다. 잡지식으로 알아두시면 되실 듯 합니다.
- 알파벳 한 글자는 1바이트, 1시간짜리 풀HD 영화한편은 보통 3GB 정도합니다.
오늘 SSD 간보기 공부는 이쯤에서 마치고, 추가로 공부해서 업데이트 되는 내용들이 있으면 공유하겠습니다. 맛점하세요!
개인적으로는 위 회사들을 아직 제대로 다 공부해 보지는 못했습니다. 대충 '이 정도 플레이어들, 이 정도 분위기가 있다' 정도로만 읽어 주세요. 저도 조금 더 깊게 공부를 해보고 뭔가 가시적인 내용이나, 재미있는 내용이 있으면 추가적으로 공부하겠습니다. 아직은 어떤 회사에 투자를 할 단계의 리서치는 마치지 못한 상태입니다.
💡 부록) 데이터 크기 단위
IDC에 따르면 현재 인간이 생성한 데이터의 규모는 175제타 바이트 정도 된다고 합니다. 1제타 바이트는 1024엑사바이트입니다. 지금도 하루에 2.5엑사바이트의 데이터가 생성되고 있습니다. 스토리지는 계속 필요하고 또 필요합니다.
1엑사바이트(EB)는 1,024 페타바이트, 다시 1페타 바이트는 1,024테라 바이트입니다. 잡지식으로 알아두시면 되실 듯 합니다.
- 알파벳 한 글자는 1바이트, 1시간짜리 풀HD 영화한편은 보통 3GB 정도합니다.
오늘 SSD 간보기 공부는 이쯤에서 마치고, 추가로 공부해서 업데이트 되는 내용들이 있으면 공유하겠습니다. 맛점하세요!
복기 후 소회 (2026년 5월에 남기는 복기)
2022년 가을. 오래된 저희 유튜브 구독자 형들은 기억하실 것입니다. 제가 태어나서 처음으로 삼성전자를 매수해 본 시절이었거든요. 저는 주식투자를 오래 했지만 삼성전자를 건드려 본 적이 한 번도 없었습니다. 중소형주를 발굴하는 데 자부심이 있었기 때문입니다. 또한 중소형주만으로도 얼마든지 수익을 잘 낼 수 있다고 믿었기 때문입니다.
당시는 하이닉스 부도설 지라시가 돌던 시기였습니다. 삼성전자도 어렵다는 이야기가 돌았고, 반도체 업황은 흉흉했습니다. 저는 반도체 업황을 제대로 볼 줄 모르는 사람입니다. 이 부분은 현업에 계신 분들도 어렵다고 하는 말입니다. 그러나 당시엔 반도체가 모두 망한다고 하기에, 처음으로 진입을 해 보았습니다. 반도체 업황이나 디테일한 증설, 수주 일정들까지는 팔로업 하지 않았습니다.
하지만 삼전과 하이닉스는 '아주 잘 나간다고 할 때 좀 줄이고, 망한다고 할 때 사 두면 되는 것 아닌가?' 하는 단순한 생각을 갖고 있었습니다. 과거엔 몇 번 기회를 놓쳤기에 이때는 찍먹이라도 해 보자는 생각으로 행동에 옮길 수 있었던 시기였습니다.
연달아 놓친 AI 슈퍼사이클
저는 원래 FOMO를 느끼지 않습니다. 원래 제 기질이기도 하고, 주식시장에서 훈련된 것도 있습니다. 남들이 슈퍼카를 타든, 잘 살든 별 관심이 없는 성격입니다. 주식시장에서도 그렇습니다. 주도주와 주도섹터는 언제나 늘 있습니다. 그런 것들을 보고 매번 FOMO를 느끼면 투자를 못 합니다. 투자 외적으로도 그렇습니다. 지금 이 시간에도 우리 또래들 누군가는 사업으로 대박을 칩니다. 하지만 그들은 그들이고 내 인생은 내 인생입니다. 온 세상 대박에 제가 다 관여할 수 있다면 이미 저는 세상의 지배자가 되어 있겠지요. FOMO는 애초에 말이 안 되는 짓이므로 아예 느끼질 않습니다. 거기에 더해 저는 반도체에 아예 투자를 안 하는 투자자였기에 더욱 그렇습니다.
그렇지만 AI 슈퍼사이클은 조금 달랐습니다. 제가 이번 사이클에서 아쉬움을 느끼는 부분이 없지 않습니다. 대한민국 최대 규모 기업들이 끝없이 상승해서 그런 것은 아닙니다. 어딜 가나 주식 이야기가 들리는 건 매 상승 사이클의 공통된 특징입니다. 가는 놈이 더 간다며 가치투자자들이 조롱당하는 것도 항상 반복되는 것입니다. 그래서 그런 부분은 시큰둥합니다.
다만 제가 아쉬운 부분은 저와 아예 관련 없는 산업이 주도 산업이었던 게 아니라, 저와 밀접하게 연관된 산업이 주도 산업이었다는 점 때문입니다.
먼저, 엔비디아입니다. 챗GPT 출시에 맞춰 챗GPT의 혁명적 파괴력 예고, 기본적인 작동 원리에 대해서 빠르게 유튜브 라이브를 진행했습니다. 어지간한 테크 유튜버들보다 빨랐으며, 주식 투자자들 중에서는 가장 빨랐습니다. 왜냐하면 저는 챗GPT 출시에 대해 들은 바가 있었고, 학습을 위해서 막대한 GPU가 소모된다는 것도 이미 알고 있었기 때문입니다. 그 부분에 대해서 멤버십 방송에서도 정확히 말씀을 드렸습니다. 엔비디아의 GPU 가격과 앞으로 필요한 수량은 아득하다는 부분을요. 그래 놓고서는 엔비디아를 안 샀습니다. 이게 저의 가장 큰 문제입니다. 투자 외적으로는 Tech Geek이면서 투자를 할 때만 되면 아주 보수적으로 변해 버립니다. 테크씬에서는 상상력의 나래를 무한대로 그릴 줄 알면서도, 투자할 때는 겁을 내 그런 그림에 올라타지 못합니다. 그림을 그리기도 전에 '언제 무너질지' 그것부터 생각합니다. 아주 큰 문제입니다. 최근에 정통 가치투자자들 중에서 마켓을 따라가지 못하며 이와 같은 PTSD를 겪는 분들이 생각보다 꽤 계신 줄 압니다.
한 번의 대시세를 놓쳤지만 '내 것이 아니려니' 하고 말았습니다. 그런데 두 번째 큰 기회를 또 놓쳤습니다. 앞선 내용에서 보셨듯이 저는 2025년 6월에 SSD를 눈여겨보기 시작했습니다. 제가 시장보다 조금 빨랐습니다. 이것도 유튜브 멤버십 라이브를 통해서 다 박제가 되어 있습니다. 저희 구독자이시자 투자 인플루언서인 한걸음 님이 'AI AGENT 한번 공부해 주세요'라는 의견을 주셨습니다. 투자를 떠나서 시대의 맥락이기에 저는 좋은 콘텐츠라는 생각이 들었습니다. 그렇게 AI Agent를 부지런히 공부하다 보니 스토리지가 엄청나게 필요하다는 빈 공간을 발견했습니다. 당시엔 모두가 GPU만 외치던 시절이었습니다. 거의 금광을 발견한 느낌이었습니다.
그래서 SSD(낸드) 비중이 가장 높은 키옥시아를 2,000엔 초반대부터 모니터링했고, 낸드 업황과 관련된 티씨케이를 팔로업 하기 시작했습니다. 그러나 생각보다 시장이 여기에 빨리 주목하기 시작했습니다. 키옥시아는 순식간에 4,000엔으로 뛰어올랐습니다. 저는 이제 시작이라고 보고 키옥시아에 진입을 했습니다. 그러나 약 두 배 정도 수익이 난 이후 하차를 했는데요. 키옥시아는 그 이후에 43,000엔을 돌파하며 상승합니다.
'2,000엔 때 팔로업을 시작했으니 저때 몰빵해서 지금까지 갖고 있었으면 20배가 넘네.' 이런 생각은 할 필요도 없고, 아무 의미 없는 상상의 영역입니다. 그렇지만 너무 일찍 내린 감은 있습니다. AI 관련해서 디램, 낸드 숏티지가 이렇게까지 크게 생기리라고는 상상도 못 했습니다. 디램 가격이 연일 폭등하는 걸 보면서도 '금방 꺼질 거품이다' 정도로만 치부했습니다.
반성과 약점 보완을 위해
사람마다 다양한 투자 스타일이 있겠습니다. 저는 약세장이나 폭락장에 방어를 잘해 오던 스타일입니다. 그리고 시장이 좋으나 나쁘나 그냥 꾸준히 제 갈 길 가는 투자자입니다. 하지만 최근 같은 이런 오랜 강세장 때는 소외되고 맙니다.
저는 제 강점을 포기할 생각은 없습니다. 이런 강세장이야 앞으로도 제 인생에 여러번 있을 것입니다. 그러나 이런 분위기 한번 잘 타는 투자자이기 보다는 지금처럼 꾸준히 따박따박 제 갈길 가는 투자자이고 싶습니다. 그리고 강세장에 크게 못 당기더라도 잃지 않고 꾸준히 복리를 쌓아가고 싶습니다.
다만 약점을 고칠 필요는 있습니다. 저는 버핏 할아버지를 존경합니다. 제 투자관 상당수는 그를 오래도록 흠모한 끝에 얻은 것입니다. 그와는 지능, 환경, 여력 모든 것이 비교 불가입니다. 하지만 제가 그분보다 강한 부분도 있습니다. 바로 신기술과 테크 분야에 대한 애정과 지식입니다. 개인적으로는 배당성장주나 소비재 투자를 좋아했기에 테크 투자에는 소홀했습니다. '테크는 변동성이 크고, 언젠간 꺾인다'는 이상한 공포심이 있었습니다. 이번 반도체 사이클에 결부되어 있었으면서도 역대급 기회를 두 번이나 놓친 것은 저의 이런 심리 기저 때문이었습니다.
'이번엔 다르다'는 말을 좋아하면 다치지만 가끔 이번이 다를 때도 있습니다. 그만큼 투자에는 답이랄 것도 없습니다. 돌아보면 이 말도 맞고, 저 말도 맞고 다 맞습니다.
그래서 기본적인 저의 투자관이나 습관은 훼손시키지 않으면서도 제가 갖고 있는 약점들은 보완해 나가면서 투자를 할 생각입니다. 하방은 단단하게 잘 지키는 편이지만, 무한대로 열려 있는 상방에 동참하는 게 취약합니다. 이 부분을 어떻게 극복할 수 있을지가 숙제입니다. 가치투자에 단순히 추세추종 마인드를 더한다 정도로는 부족할 듯합니다. '기술주는 언젠간 갑자기 끝나서 사라질 수 있다'는 생각도, '기술주는 변동성이 심하다'는 제 생각도, 제가 제 스스로에게 게으름을 포장하기 위해 만든 셀프 공포심일지도 모르겠습니다.
이 스터디의 팔로업 기간동안 퍼포먼스 (멤버십에 실시간 공유했던 내용)
- 티씨케이 : +13.79%
- 키옥시아 : +123.06%
찍먹을 해보았지만, 쫄아서 단타모드가 되었습니다. 학습한 내용과 질에 비하면 용두사미가 되었습니다. 이번 사례를 잘 복기해서, 다음에 테크 기업에서 좋은 기회를 찾는다면 그 기회를 잘 누려 보도록 하겠습니다.
"아는 것과 행하는 것은 다르다.", "기존 원칙을 지키되, 가보지 않은 길이 열릴 때 과도한 공포는 경계하자.", "대중들이 무조건 틀리는 것도 아니고, 무조건 맞는 것도 아니다. 하지만 대중들이 열광한다고 무조건 무시하지는 말자.", "업황의 방향성 내지 시장의 광기는 어디까지 갈지 아무도 모른다. 함부로 판단하지 말자."
"아는 것과 행하는 것은 다르다.", "기존 원칙을 지키되, 가보지 않은 길이 열릴 때 과도한 공포는 경계하자.", "대중들이 무조건 틀리는 것도 아니고, 무조건 맞는 것도 아니다. 하지만 대중들이 열광한다고 무조건 무시하지는 말자.", "업황의 방향성 내지 시장의 광기는 어디까지 갈지 아무도 모른다. 함부로 판단하지 말자."
이런 자기반성을 하고 있습니다. 그렇지만 분명한 것은 많은 사람들이 이제는 '주식투자로 돈 버는 것을 당연하게 생각한다.', '월 100% 수익률은 우습게 생각한다.', '수 천%를 벌었어요 하는 글이 쏟아진다.' 이런 분위기는 분명히 경계를 해야 하는 부분이라고 생각합니다.
그럼에도 AI혁명에서 건지고 있는 것
투자와 별개로 이번 AI 사이클에서 투자 이외의 부분에서 건진 것은 있습니다. 앤트로픽 이용자 중 제가 토큰을 가장 많이 사용하는 최상위권 유저 중 한명인 것으로 판단하고 있습니다. 한달에 수십억 토큰을 쓰고 있기 때문입니다.
AI 혁명 덕분에 저의 일상, 리서치 업무, 기타 자잘한 업무들이 아주 편리하게 처리되고 있습니다. 그리고 웹사이트 개발, 앱 개발 등 개발 속도도 붙어서 요즘에는 정말 미친듯이 서비스를 만들고 운영하고 있습니다. AI와 함께하는 개발이 정말 재미가 있습니다. 요즘은 투자도 투자지만 뭔가 만드는 작업에 다시 재미를 크게 붙이고 있습니다. 요즘이라고 하긴 그렇고 이미 작년부터네요.
덕분에 제가 그리던 서비스들과 소프트웨어 상당수를 개발해 둔 상태이고, 서비스들도 어느 정도 자리를 잡고 있습니다. 제가 쓰는 비용대비 압도적 리턴을 뽑아내고 있습니다. 그리고 AI 덕분에 기회도 많아져서 AI 빅사이클에서 완전 소외된 것은 아니라고 자위하며 이 글을 마칩니다. 투자만으로는 얻을 수 없는 막대한 즐거움, 가치, 기회들을 얻고 있습니다.
2025년 6월에 했던 유튜브 라이브 방송 내용을,
2026년 5월 7일에 토시하나 안 바꾸고 그대로 옮김
송종식 드림