최근 2주(2026년 4월 기준) 동안 쏟아진 AI 소식을 Anthropic 중심으로 빠르게 훑되, 그 안에 담긴 전략(출시 주기, 보안, 제품 통합)과 시장 함의(토큰 비용, wrapper의 취약성, 도망갈 길)를 시간순으로 정리한 에피소드입니다. 핵심 메시지는 "모델이 이미 가진 capability overhang(과잉 능력)을 누가 더 잘 '꺼내 쓰느냐'가 승부를 가른다"는 점이고, 그 결과 제품 '딸깍'(복제/흡수)이 더 쉬워져 기존 사업 방식이 흔들린다는 경고가 이어집니다. 마지막에는 개인/팀이 살아남기 위한 두 갈래( unbundling vs AI for Science )와, 그 시대에 더 중요해지는 취향·의사결정·메모리 관리를 강조하며 마무리합니다.


1. 2주 만에 반년치가 쏟아진 느낌

녹화일은 2026년 4월 19일 일요일 아침. 두 사람은 한 주를 건너뛰고 2주 만에 녹화했는데, 그 사이 뉴스가 너무 많아 "깊게 다 보기 어렵다"며 주마간산 + 해석 방식으로 정리하기로 합니다.

지난 에피소드가 Claude Code 유출 이슈였던 만큼, 그 뒤의 분위기도 짚습니다. Claude가 타격을 받았느냐를 두고 의견이 갈렸지만, 두 진행자는 오히려 Anthropic이 지난 2주간 보여준 행보를 보면 "밖에 있던 것들을 안으로 더 많이 들였다"고 봅니다. 즉, 논쟁과 별개로 제품은 더 공격적으로 확장됐다는 인상이에요.

"2주 동안 정말 너무 많은 소식이 쏟아졌거든요."
"이제는 2주라고 하면 반년이잖아요. 그야말로 반년의 임팩트예요."


2. 모델 릴리스 주기, 평균 70일로 압축되는 세계

최승준은 위키백과 자료를 바탕으로 모델 릴리스 간격을 시각화해 보며, 특히 Opus 라인의 출시 간격이 계속 좁아져 평균 약 70일 주기로 수렴한다고 설명합니다. 대략적인 예로 Opus 4 → 4.1 → 4.5 → 4.6 → 4.7이 빠르게 이어졌고, 이 패턴대로면 6월 말~7월 초쯤 또 다음 모델을 예상합니다.

노정석은 여기서 흥미로운 직관을 덧붙입니다. 원래는 "고급 모델은 가끔, 실무는 Sonnet/Haiku 중심"이 될 거라 예상했지만 현실은 반대로, 수요가 Opus로 몰리는 흐름이 보인다는 거죠. 사람은 결국 "항상 최고의 모델"을 원한다는 해석입니다.

"얼추 이 간격을 평균 내면 대략 한 70일 간격마다 모델이 나온다고 봐야 돼요."
"사람들은 항상 최고의 모델을 좋아한다."

이 짧은 주기는 사용자/팀에게도 부담이 됩니다. 새 모델이 나오면 프롬프트가 달라지고, 안 되던 것이 되거나 되던 것이 안 되며, 결국 70일마다 리팩토링·재튜닝 일이 생기는 구조가 된다고 봅니다. 😮‍💨

"계속 일거리가 한 70일마다 생긴다고 봐야 되지 않을까요?"


3. Claude Code 업데이트 폭주와 Anthropic의 '집중' 전략

두 사람은 Anthropic이 "텍스트와 코딩"에 집중하면서 B2B 유스케이스를 깔끔하게 조합해온 점을 강하게 평가합니다. 특히 Claude Code는 changelog가 공개된 상태에서 업데이트가 매우 촘촘하게 이어져, 새로운 명령/슬래시 커맨드가 계속 추가되는 등 "익히는 것도 만만치 않다"고 말합니다.

또 Claude Code가 네이티브 바이너리 형태로 바뀌며 배포 방식이 달라진 점(런타임 포함 패키징으로 보이는 변화)도 언급합니다. 이런 제품·블로그·레드팀 포스팅까지 합치면, "Claude 세계관 내부에서만도" 분기 초부터 이벤트가 폭발적으로 많았다는 인상입니다.

"굉장히 높은 밀도로 뭔가 계속 바뀌고 있습니다. 피곤합니다."

이 흐름 속에서 OpenAI는 코딩 에이전트를 "조금 늦게 따라오기 시작했고", Google은 아직 "이슈 선점에 참여를 못하고 있다"는 비교도 나옵니다. 다만 Google은 관심사가 코딩/B2B가 아니라 과학(Alpha 계열, Isomorphic Labs 등)일 수 있다고 봅니다.

"Anthropic이 참 잘한 것 같긴 해요. 그냥 명확하게 텍스트와 코딩에만 완전히 집중하고…"
"지금 어쨌든 그 이벤트를 선점하고 있는 거는 Anthropic이 너무 자명해 보이고."


4. GPT-5.5 루머에서 Mythos 논쟁으로

이야기는 OpenAI 루머로 잠깐 넘어갑니다. GPT-5.5가 나온다는 소문, 코드명 Spud, 그리고 그것이 "Mythos급"이라는 말까지 돌지만, 진행자들은 확인되지 않은 임을 명확히 합니다.

그리고 곧바로 본론인 Anthropic의 Mythos로 이어집니다. Anthropic이 Mythos를 "사이버 보안 능력 때문에 런칭이 어렵다"는 식으로 밑장을 깔고 홍보한 뒤, 그 사이에 Opus 4.7을 낸 상황을 두고 의견이 갈립니다.

  • 한쪽 해석: "보안 위험이 커서 출시가 조심스럽다"
  • 다른 해석: "사실은 컴퓨팅/GPU 자원 부족 때문에 못 내는 것 아니냐"

특히 Anthropic이 3사(OpenAI/Google/Anthropic) 중 컴퓨팅이 가장 달린다는 관측, 작년 GPU 확보 실패로 쇼티지가 이어졌다는 업계 코멘트도 인용됩니다.

"Mythos를 프로덕션을 못 하는 이유는… Anthropic이 지금 컴퓨팅 자원이… 가장 달리거든요."

다만 다른 관측도 나옵니다. Jensen Huang 인터뷰 맥락을 들며, Anthropic이 NVIDIA 의존도를 줄이고 AWS Trainium, Google TPU 등으로 포션을 옮기고 있을 수 있다는 것. 노정석은 이를 "하드웨어는 2~3년 리드타임, 소프트웨어는 60~70일"이라는 타임프레임 미스매치로 설명합니다.

"하드웨어의 타임프레임은 2, 3년… 소프트웨어는 60일, 70일… 그 두 개의 미스매치 때문에…"


5. Mythos의 10T 스케일, '마케팅 홈런'과 불안감

Mythos는 소문상 10T(트릴리언)급으로 언급됩니다. 노정석은 인간 뇌의 뉴런·시냅스 수에 대한 비유를 꺼내며, (아주 거칠게) 이론적 최대 시냅스 용량의 10분의 1 같은 스케일로 느껴진다고 말합니다. 규모 자체가 주는 상징성이 큰 대목이에요.

그러다 보니 "보안 문제 때문에 50개 기관에 얼리 액세스를 주고 상황을 보는 것 같다", "서빙도 어렵다" 같은 말이 돌며 불안감을 키웠고, 노정석은 이를 마케팅 관점에서 "홈런"이라 평가합니다. 심지어 "IPO 마케팅"이라는 말까지 나온다고 해요.

"Anthropic이 마케팅적으로는 홈런이죠."
"이게 지금 IPO marketing이라는 얘기도…"

또 "사람을 속여 샌드박스를 탈출했다" 같은 자극적 이야기까지 언급되며, Mythos는 출시 여부와 별개로 '서사'를 만들어낸 상태로 그려집니다.


6. 보안 이슈의 본질: '새 능력'보다 '도구 조합 능력' 😬

최승준은 Nicholas Carlini의 논지를 따라, Mythos의 위협이 "완전히 새로운 차원의 마법"이라기보다 이미 존재하는 도구들을 잘 조합하는 능력에서 온다는 점에 주목합니다. 코딩을 잘하는 모델이 자연스럽게 제로데이 탐지/분석/조합까지 잘하게 되고, 그 능력은 화이트햇/블랙햇 양쪽으로 쓰일 수 있다는 경각심이죠.

노정석은 해커 경험을 바탕으로, 취약점은 단품 지식이 아니라 연결과 결합에서 생기는 창발적 현상에서 나오며, 그걸 찾으려면 "암묵지적 사고"와 대규모 실험이 필요하다고 설명합니다. 모델은 서로 멀어 보이는 지식을 연결하는 데 강해서, 인간이 기피하는 분야 간 이동도 자연스럽게 해낸다고요.

"보안 쪽의 능력이 강한 게… 이미 있는 도구들을 잘 조합하는 능력이 뛰어나다…"
"취약점이라는 거는 그 연결 사이에서 탄생하기 때문에… 결합됐을 때 나오는 창발적 현상…"

여기서 제목의 뉘앙스가 드러납니다. 지금 많은 혁신은 '완전한 돌파'라기보다, 모델이 문헌을 잘 찾고 연결해 low-hanging fruit(낮게 열린 과실)을 빠르게 따는 형태로 폭발하고 있다는 관찰이에요.

"사람이 질문을 던지면 문헌을 잘 찾는 것만으로도 low-hanging fruit… 보안도 마찬가지…"


7. capability overhang: "사람의 기여분이 거의 없다"는 냉정한 진단

노정석은 요즘 일어나는 일의 본질을 capability overhang으로 묶습니다. 모델은 이미 엄청난 능력을 '가지고' 있고, 지금 경쟁은 그 능력을 누가 더 잘 꺼내 쓰느냐라는 것이죠. 생명과학/화학/서비스 자동화 모두 같은 프레임으로 본다는 점이 인상적입니다.

"대부분 다 모델이 이미 가지고 있을 거라고 추정하는 모델의 과잉 능력… 그 능력을 누가 빨리 잘 꺼내 쓰느냐의 싸움…"


8. Opus 4.7: Adaptive Thinking, 웹 제약, 그리고 tokenizer 변화

Opus 4.7로 넘어오면 사용자 체감 이슈가 구체적으로 나옵니다.

8-1. Adaptive Thinking 때문에 '답이 흔들린다'

최승준은 4.7을 테스트하면서, adaptive thinking이 웹에서 켜져 있어 결과가 들쭉날쭉해지는 현상을 말합니다. 예시로 "100피트 떨어진 세차장에 차를 가져갈까 걸어갈까" 같은 문제에서, thinking을 안 켜면 "걸어가라", 프롬프트에 Ultrathink 등을 넣어 thinking을 유도하면 "차를 가져가라"는 식으로 달라진다는 거예요.

"thinking을 안 켜고 하면… 걸어가야 된다… Ultrathink를 넣어주면… 차 가지고 가야 된다…"

노정석은 이런 adaptive 도입이 결국 트래픽/비용 부담과 연결된다고 봅니다. 많은 고급 사용자는 디폴트로 thinking을 올려 쓰는데, 웹에서는 그걸 고정하기 어렵고(Claude Code에서는 가능), 결국 자원 배치를 제한한 것처럼 보인다는 이야기입니다.

"adaptive 같은 거를 계속 넣는다는 얘기는 트래픽에 대한 부담이 있다는 거고…"
"웹 인터페이스는… 자원 배치를 한 것 같은 느낌. 부족한 거죠."

8-2. tokenizer가 바뀌며 '같은 일에 토큰을 더 쓴다' → 체감 비용 상승

또 하나의 큰 변화는 tokenizer 변경입니다. vocabulary 수가 줄어든 듯 보이는데, 결과적으로 같은 텍스트도 토큰이 더 잘게 쪼개져 토큰 사용량이 증가하고 비용 체감이 커졌다는 보고가 나옵니다.

"tokenizer가 바뀌었어요."
"똑같은 일을 할 때… 4.7이 토큰을 훨씬 많이 쓴다는 게 지금 보고되고 있죠."

CJK(한중일) 언어는 변화가 크지 않은 반면, 영어 산문/시는 약 1.3배, 코드1.3~1.4배까지 늘어난 분석을 공유합니다. Claude Code를 쓰는 사람 입장에서는 곧바로 "프로 계정이 순식간에 닳는다"는 현실 문제로 이어지고요.

"Claude Code를 쓰는 입장에서 보면… 평균 토큰값이 1.3에서 1.4배 비싸졌다고…"
"프로 계정은 순식간에 없어지더라고요."

그럼에도 노정석은 중장기적으로는 중국 랩이나 Google 같은 경쟁자가 따라오면 가격은 내려가야 한다는 관점을 유지합니다. 사업 계획도 "토큰 값 상승에 베팅"하기보다 합리적 수준으로 수렴한다고 가정하는 게 맞다고 조언합니다.

"이거 자체가… 저작권으로 보호받는 recipe가 아니기 때문에… 값은 계속 내려가는 게 맞…"


9. Mythos/Opus 파이프라인 추정: KD(증류) 중심으로 재편됐나?

두 사람은 Anthropic이 모델 라인을 굽는 방식이 바뀌었을 가능성을 토론합니다. 과거에는 Opus/Sonnet/Haiku가 각자 프리트레인을 시작해 CPT(continual pre-training)로 발전했다면, 이제는 하나의 큰 베이스 모델(가령 Mythos)을 만들고 거기서 KD(knowledge distillation, 지식 증류)로 등급별 모델을 뽑는 구조로 가는 것 같다는 추정이 소개됩니다.

노정석은 KD가 어떻게 이뤄질 수 있는지 비교적 쉽게 풀어 설명합니다. 핵심은 "똑똑한 teacher가 답안을 만들고, student가 그것(정답/확률분포/피드백)을 학습한다"는 구조예요. (여기서는 단계가 중요해 보여 간단히 항목으로만 정리할게요.)

  1. 정답지 방식: teacher가 만든 정답을 학습 데이터처럼 써서 student를 학습
  2. 분포(logit) 학습: 정답 하나가 아니라 다음 토큰 후보들의 확률 분포를 student가 따라 학습
  3. on-policy 보강: student가 직접 답을 내고, teacher가 따라가며 오답 구간에 강한 시그널을 주는 방식

"제일 똑똑한 모델이… 정답지를 한 번 쓰면… 작은 모델을 훈련…"
"log probability… 분포를 학습시키는 방법…"
"on-policy로 돌려서… 작은 모델이 실수하는 부분들에 더 강한 시그널…"

또 Anthropic system card에 "audit(감사)"나 참여 주체 언급이 많은 점도 짚는데, 이것이 KD를 직접 말하진 않아도 "순화된 표현일 가능성"을 조심스럽게 봅니다.


10. 프론티어 격차 감각: '6~10개월'이 사실상 다른 스케일

Amodei가 "6~10개월 정도 앞섰다"고 말한 부분을 두고, 노정석은 지금 같은 변화 속도에서는 그 6~10개월이 체감상 6~10년급으로 느껴질 수 있다고 말합니다. 둘은 작년 이맘때 GPT-4o를 쓰고 있었다는 사실만 떠올려도 "세상이 너무 빨리 바뀐다"고 서로 놀랍니다.

"6개월에서 10개월이… 6년에서 10년 떨어진 그런 걸 하고 있는 거니까."

또 지식 컷오프 얘기도 나옵니다. 4.7의 training cutoff가 2026년 1월로 매우 최신이고, Mythos가 내부에서 쓰이기 시작한 시점이 2월 24일이었다는 언급까지 이어지며, Anthropic이 굉장히 촘촘한 타임라인으로 모델을 "굽고 있다"는 인상이 강조됩니다.


11. Managed Agent: '뇌와 손'을 분리해 보안/확장성을 잡는다

최승준이 주목한 또 다른 이슈는 Managed Agent입니다. 요지는 모델(뇌)과 도구/메모리/샌드박스(손)를 분리해, 모델에 시크릿(크레덴셜/토큰 등)을 직접 노출하지 않고도 일을 시키는 구조로 보입니다. 이것이 보안 문제와도 정확히 맞물린다는 해석이에요.

"모델이 시크릿 같은 거… 자꾸 주면 그게 유출될 수 있으니까 분리하는 작업…"

노정석은 이를 거칠게 "OpenClaw의 n8n 에디션"처럼 느꼈다고 말하면서도, 결국 하네스(통제 장치)는 더 중요해질 거라고 동의합니다. 프론티어 모델을 직접 만들지 않는 다수의 플레이어에게, 고객과 모델 사이에서 남는 영역이 하네스/워크플로우일 수 있다는 관찰도 나옵니다.

"하네스의 존재는 반드시 필요해질 것 같습니다."
"저 영역이… 고객과 프론티어 모델 사이에서 유일하게 남아 있는 영역…"


12. Automated Alignment Researcher와 Alien Science: 인간 verifier의 한계

4월 14일 공개된 Automated Alignment Researcher(AAR)도 짚습니다. 저자 목록에 Jan Leike가 포함된 점이 화제가 되고, "자동 연구자(자기 증강 연구)"는 모든 빅테크가 노리는 방향이라는 큰 흐름이 확인됩니다.

핵심 논점은 "연구를 단순한 힐 클라이밍처럼 밀어 올리면 해결되느냐"인데, 최승준은 관측상 그렇지 않으며 취향과 다양성은 아직 사람의 가이드가 필요하다는 문제의식이 담겨 있다고 요약합니다. 또 "약한 존재(weak)가 강한 존재(strong)를 어떻게 가이드하느냐"가 중요해지는데, 이 프레임은 곧 "인간이 강력한 AI를 어떻게 정렬할 것인가"로 이어집니다.

"우리가 관측하기에는 아닌 것 같다. 여전히 취향과 다양성은… 사람이 가이드…"
"위크한 모델이 어떻게 스트롱한 모델을 가이드…"

이 대목에서 'Alien Science'가 등장합니다. 언젠가 모델이 만들어내는 연구 결과가 바둑의 '37수'처럼 인간이 이해/검증하기 어려운 형태가 될 수 있고, 그때 인간이 verifier로 개입할 수 없게 되는 지점이 온다는 경고입니다.

"인간이 더 이상 verifier로 개입할 수 없는 지점이 나올 겁니다. 그래서 Alien Science…"


13. Anthropic 생태계 신호: Red Team, 커뮤니티, 그리고 정리 도구로서 Claude

Anthropic은 리서치/엔지니어링/코퍼레이트/레드팀 블로그까지 여러 채널에서 고주파로 메시지를 내고 있고, red.anthropic.com 같은 레드팀 채널도 언급됩니다. 커뮤니티는 배포된 결과에서 힌트(숨은 키/단어 등)를 찾아내며 "울트라 플랜이 감지됐다" 같은 반응을 만들기도 하고요.

최승준은 뉴스가 너무 많아 스스로 정리가 안 되니, Claude로 타임라인을 조망하는 도구를 만들어 훑어봤다고 말합니다. 즉, "정보가 너무 많아 AI로 정보를 정리한다"는 구조가 이미 일상으로 들어온 셈입니다. 📌

"너무 뉴스가 많고 제가 정리가 안 되니까 한번 만들어 보라고 한 겁니다."


14. Claude Design의 충격: 프론트엔드 피드백 루프가 닫히다

커뮤니티에서 크게 회자된 것은 Opus 4.7 성능 자체보다 Claude Design이었습니다. 인트로 화면부터 DOM 기반으로 실시간 애니메이션이 돌아가며, 이것 자체도 Claude Design으로 만든 것 같다는 관찰이 나옵니다.

"이게 동영상이 아니에요… 다 DOM입니다."

Claude Design은 단순 생성이 아니라 편집(editing)까지 가능하고, 디자인 산출물이 곧바로 컨텍스트로 들어가 다음 작업의 기반이 됩니다. CSS 편집/저장도 가능해, 예전 Canvas 초기처럼 "생성 + 수정"을 한 흐름으로 묶어둔 제품으로 묘사됩니다. 이 흐름은 "프론트엔드 피드백 루프를 닫는 것"과 연결됩니다.

특히 최근 Claude Code 앱과 Codex 데스크톱 앱에 인앱 브라우저가 들어간 점이 중요하게 다뤄집니다. 결과물을 외부 브라우저가 아니라 앱 내부에서 띄우고 inspect하며, 그 피드백을 다시 모델에게 전달하는 방식이 쉬워졌다는 것. 즉, "만든 뒤 확인→수정"이 한 공간에서 돌아가며 성능이 올라가는 구조가 굳어지고 있다는 진단입니다.

"둘 다 뭐가 들어갔냐 하면 인앱 브라우저가 들어갔습니다."
"피드백 루프를 닫는 게 현재 되고 있어요."


15. '딸깍'의 시대: wrapper 비즈니스가 표적이 되는 암흑의 숲

노정석은 Claude Design을 보며 예전에 강하게 밀리던 서비스(Pencil)와 매우 비슷하다고 말합니다. 중요한 건 "누가 먼저 했느냐"의 도덕 논쟁을 넘어, 이런 흡수/복제가 구조적으로 가능해지는 세상이 전개된다는 점이 지난 에피소드의 핵심 메시지였다고 재강조합니다.

"저희가… 전달하고 싶었던 키 메시지는… 옳고 그름과 상관없는 세상이 펼쳐진다는…"

그리고 댓글에서 나온 비유를 다시 꺼냅니다. 지금은 "암흑의 숲"이며, wrapper가 목표(objective)를 뚜렷하게 드러내는 순간 더 상위 지능이 그 목적을 겨냥해 바로 '딸깍'해버릴 수 있다는 이야기입니다.

"이젠 우리 다 암흑의 숲에 있다."
"최종 산출물의 목표 objective를 딱 찍어줄 수 있으면… 바로 딸깍 당하는 거죠."


16. 도망갈 길 두 가지: unbundling vs AI for Science

여기서 노정석은 "도망자 관점"으로 현실적인 생존 전략을 두 갈래로 정리합니다.

16-1. 첫 번째 길: unbundling ChatGPT/Claude Code/Codex (고객은 아직 '과거'에 있다)

프론티어 도구(Claude Code, Codex, Claude Design)를 능숙하게 쓸 수 있다는 전제를 둔 뒤, 아직 대다수 고객은 최신 도구를 못 쓰거나 안 쓴다고 봅니다. 맥스 요금제를 내고 프론티어를 따라가는 사람은 전체의 1~2%일 수 있고, 나머지 거대한 고객군은 여전히 남아 있다는 관찰이에요.

즉, 프론티어에서 이미 가능한 것들을 뒤따라오는 고객에게 맞게 쪼개어(unbundle) B2B/B2C로 제공하는 시장은 여전히 크다는 결론입니다.

"unbundling ChatGPT… 각각의 수많은 작은 비즈니스 영역… 이제 또 열린다."
"고객을 바라보면… 고객과 최신 기술 사이에서… 언제나 보이거든요."

16-2. 두 번째 길: AI for Science (어렵지만 경쟁이 덜한 '중후장대' 영역)

다른 한 축은 Isomorphic Labs 같은 AI for Science입니다. 다만 이 영역은 용어 자체가 낯설고, 프론티어에 있는 사람조차 이해가 어려워 관심/조회수가 낮게 나오기도 한다고 말합니다. 예로 GPT-Rosalind나 GitLab CEO의 암 치료 이야기는 중요한데도 조회수가 잘 안 나온다는 거죠.

"사람들이… 이해 안 되니까 그냥 바로 꺼버리는 거거든요."

최승준은 GPT-Rosalind 프롬프트를 보고 "외계어" 같았다고 말하고, 실제로 Opus에게 여러 층위로 쉽게 설명해 달라 해도 "알까 말까"였다고 회상합니다. 그럼에도 노정석은 생명공학 책/논문을 보강하며 느낀 점이 있다며, 모델이 이미 알고 있는 게 너무 많다고 말합니다. 심지어 컷오프 이후 논문도 가정 몇 개만 던져 추정시키면 방향이 꽤 유사하게 나온다는 경험담이 이어집니다.

"모델은 이미 다 알고 있는 것들이 너무 많더라고요."


17. 개인화 정밀의료 사례: '바이오가 소프트웨어 엔지니어링이 되는' 순간

AI for Science의 구체 예로, GitLab CEO Sid Sijbrandij의 사례가 길게 다뤄집니다. 노정석은 의사와 환자의 incentive가 다르다는 Sid의 말(의사는 liability 최소화, 환자는 해결책 최대화)을 소개하며, 희귀암에서 특히 그 충돌이 커진다고 봅니다.

그리고 그가 해결한 방식은 핵심만 말하면 유전자 시퀀싱 기반 개인화 백신에 가깝습니다. 종양과 체세포를 시퀀싱해 과발현 단백질을 찾고, 그 항원을 mRNA 백신 형태로 넣어 면역계(T세포)가 암세포를 인지·공격하게 만드는 기작을 설명합니다. 복잡하지만 요지는 "wet lab(실험실) 이전 단계에서 소프트웨어로 거의 다 찾는다"는 것, 즉 생물학이 "온전히 소프트웨어 공학으로 바뀌는" 지점이 생긴다는 주장입니다.

"이게 보면… 이 전부 다 software engineering이에요."
"wet lab 가기 전까지 시뮬레이션으로 상당히 커버리지가…"

여기에 더해 유전체 파운데이션 모델(Arc Institute의 Evo 2), 그리고 후생유전학(epigenetics)과 그 발현 조절을 다루는 AlphaGenome 같은 예가 붙으며, LLM과 시퀀스 데이터의 친연성이 강조됩니다.

"Evo 2… genome sequence… 그냥 그거를 pre-train한 거예요."
"그 epigenetic… 후생유전학… 켜고 끌 수 있는…"

노정석이 여기서 제안하는 결론은 명확합니다. 두 길 모두 쉽진 않지만, 공부를 즐기고 경쟁이 덜한 쪽을 원한다면 AI for Science는 거대한 기회가 될 수 있다는 것. 다만 두 길 모두 본질적으로는 프론티어 모델의 capability overhang 위에서 돌아가는 "서비스업"에 가까워지고, 전통적 의미의 IP로 오래 해먹는 사업은 줄어들 수 있다는 전망을 덧붙입니다.


18. Attention business와 메모리 매니지먼트: 결국 사람의 가치는 '선택'에 있다

마무리로 갈수록 두 사람은 "볼 게 너무 많다"는 피로감을 다시 꺼냅니다. AI를 써도 신호가 과잉이라, 반복 업무는 OpenClaw 같은 자동화로 위임하고, 사람은 시그널/노이즈를 가르는 능력이 가치가 된다고 말합니다.

또 최근 개인용 ontology, 지식베이스, 메모리 매니지먼트 구현 난이도가 급격히 내려가 유행이 됐고, 이 주제는 다음에 따로 다루자고 예고합니다. 예로 Gyeol, MemKraft 같은 도구도 언급됩니다.

"지식을 관리하고… 의미를 찾는 거가 어떻게 돼야 되는가…"
"이게 일종의 attention business가 되어 가고 있어요."

결국 alignment 이야기로 돌아와도 핵심은 비슷하다고 정리합니다. 취향, 그리고 "여기가 중요해, 이걸 해야 해" 같은 의사결정이 인간의 가치가 되는 시대이며, 많은 정보를 알면서도 명확한 결정을 내리는 사람이 더 중요해진다는 거죠. 그래서 "다 우울한 것만은 아니다"로 대화를 닫습니다.

"취향에 대한 의사결정… 그 인간의 가치가 되는 세상이거든요."
"다 우울한 것만은 아니다."


마무리

이번 에피소드는 Anthropic의 고속 릴리스(약 70일), Mythos 보안/자원 논쟁, Opus 4.7의 adaptive thinking·tokenizer 변화로 인한 비용 체감, 그리고 Claude Design/인앱 브라우저로 닫히는 피드백 루프를 한 줄기로 묶어 보여줍니다. 그 결과 "wrapper는 더 빨리 딸깍 당하는" 환경이 되며, 개인/팀의 생존 전략은 unbundling 시장을 공략하거나 AI for Science로 도메인을 확장하는 두 갈래로 정리됩니다. 마지막 메시지는 단순합니다. 정보 과잉의 시대에는 메모리 관리 + 취향/의사결정이 점점 더 강력한 인간의 경쟁력이 됩니다.

함께 읽으면 좋은 글

Harvest창업 · AI한국어

YC가 제안한 2026년 스타트업 요청서 핵심 요약

Y Combinator의 RFS는 “이걸 누가 풀어줬으면 좋겠다”는 미래 과제 목록으로, 꼭 여기에 적힌 아이디어가 아니어도 YC 지원에는 전혀 문제가 없다고 말합니다. Summer 2026 에디션의 큰 줄기는 AI가 ‘기능’이 아니라 ‘기반’이 되면서 소프트웨어·서비스·하드웨어·물리 세계...

2026년 4월 29일더 읽기
HarvestAI한국어

Claude Bloom 2차 행사 요약: 마이리얼트립·AB180과 함께 만든 ‘AI 네이티브’의 현장

지난주 1차 행사 이후 나온 “온라인으로 들을 수 있는 얘기를 왜 1시간 반이나 앉아 듣나”라는 피드백을 계기로, 이번 2차는 오프라인에서만 가능한 ‘깊은 대화’에 초점을 맞춰 포맷을 바꿨어요. AB180은 소모임에 최적화된 공간과 케이터링을 지원했고, 마이리얼트립은 AX(업무 전환) 경험...

2026년 4월 25일더 읽기
Harvest엔지니어링 리더십 · AI한국어

Anthropic 제품팀이 다른 어떤 팀보다 빠르게 움직이는 방법 | Cat Wu (Claude Code 제품 책임자)

이 영상은 Anthropic의 Claude Code 및 Cowork 제품 책임자인 Cat Wu와 함께 Anthropic 제품팀이 어떻게 남들보다 빠르게 제품을 출시하는지, AI 시대에 제품 관리자(PM)에게 필요한 새로운 역량은 무엇인지에 대해 깊이 있는 이야기를 나눕니다. Cat Wu는...

2026년 4월 24일더 읽기