급변하는 AI 시대, 나와 같은 평범한 개발자가 겪고 있을 고민과 마음가짐

이미지
급변하는 AI 시대, 나와 같은 평범한 개발자가 겪고 있을 고민과 마음가짐 복잡한 마음에 산에 올랐다. 목적지는 없었다. 그냥 걸어야 할 것 같았다. 자리에 앉아서 풀리지 않는 게 있을 때, 화면에서 눈을 떼야 비로소 보이는 게 있다는 걸 안다. 그날은 화면의 문제가 아니었지만, 자리를 떠나야 한다는 감각은 같았다. 신발을 신고 나갔더니 발이 산 쪽으로 향했다. 의식적인 선택이었는지 모르겠다. 그냥 높은 곳에 가고 싶었던 것 같다. 거기 올라가면 내가 지금 서 있는 자리가 작아 보일 것 같았다. 결론부터 말하면 정리되지 않았다. 오히려 더 복잡해졌다. 다만 한 가지가 보였다. 길. 산길에는 여러 종류가 있다. 사람들이 하도 많이 밟아서 완전히 다져진 길이 있다. 발을 디딜 때마다 단단한 게 발바닥에 전해진다. 아무리 힘껏 밟아도 흔적이 남지 않는다. 그 길은 이미 수천, 수만 개의 발자국이 지나가며 굳어버린 길이다. 단단하다는 감각은 착각이 아니다. 실제로 단단하다. 다만 그 단단함은 내 것이 아니다. 수많은 사람이 만들어낸 단단함 위에 내가 잠시 올라서 있는 거다. 그 길은 나를 기억하지 않는다. 흙길이 있다. 걸으면 발자국이 남는다. 그것도 하나가 아니라 여러 방향, 여러 깊이의 발자국들이 겹쳐 있다. 누군가는 가볍게 스쳐갔고, 누군가는 깊이 박혔다. 같은 길인데 같은 방향으로만 걷지 않는다. 각자의 속도, 각자의 무게로 지나간 흔적이다. 흙길은 지나간 것들을 기억한다. 발이 닿은 자리를, 그 무게가 얼마였는지를. 자갈길이 있다. 겉으로 보기엔 단단해 보인다. 발을 디뎌보면 다르다. 자갈이 굴러간다. 발이 미끄러진다. 확신하고 들어섰는데 예상과 다른 감촉이 발바닥에 전해진다. 자갈길인 걸 알고 들어가면 다르게 걸을 수 있다. 조심스럽게, 한 발 한 발 무게를 싣기 전에 확인하면서. 근데 단단한 길인 줄 알고 성큼 들어갔다가 자갈길이라는 걸 발이 먼저 알게 되면, 그 순간 몸의 중심이 흔들린다. 발이 흔들리는 게 아니라 내 판단이 흔들린다....

Why AI Mass-Production Channels Collapse Fast — and Why the People Who Run Them Pivot to Selling Courses

이미지
A Quarter Where 4.7 Billion Views Vanished Between January and April 2026, sixteen major AI mass-production channels were shut down. Combined, they had accumulated 4.7 billion views, 35 million subscribers, and an estimated $10 million in annual revenue — all gone in a single quarter. South Korea's "3-Minute Wisdom," which had once crossed 2 billion cumulative views, was among them. In Part 1 of this series , I traced how YouTube's policy shift — swapping the word "repetitious" for "inauthentic" — became the starting gun for that wave of enforcement. I closed that piece with a single line: mass production fails fast, and genuine use grows slowly. This piece is the follow-up. Where did the people running those channels go? And why, right alongside the collapse, did so many of those same people start selling courses? But first, one question I want to plant at the top, because the rest of this piece follows it. If the method genuinely makes mone...

AI 양산 채널은 왜 빨리 망하고, 망한 사람들은 왜 강의를 팔러 가는가

이미지
한 분기에 47억 회가 사라진 풍경 2026년 1월부터 4월까지 넉 달 사이에 메이저 AI 양산 채널 16개가 정리됐다 . 누적 조회수 47억 회, 구독자 3,500만 명, 연 추정 수익 1,000만 달러어치가 한 분기에 증발했다 . 한국에서 한때 누적 조회 20억 회까지 갔던 '3분 지혜' 같은 채널도 그 안에 있다. 1편 에서는 유튜브가 약관에서 단어 하나(repetitious → inauthentic)를 바꾼 것이 어떻게 그 분기 단속의 신호탄이 됐는지를 풀었다. 그때 글을 닫으면서 한 줄로 던졌던 결론이 있다. 양산은 빨리 망하고, 진짜 활용은 늦게 큰다. 이 글은 그 문장의 후속이다. 양산이 망하는 동안 그 사람들은 어디로 갔는가, 그리고 망하는 풍경 옆에서 왜 갑자기 같은 사람들이 강의를 팔기 시작했는가. 여기서 한 가지 질문을 먼저 던져두고 싶다. 글 전체가 이 질문을 따라간다. 정말 돈이 되는 노하우라면 왜 굳이 유튜브에 공개해서 경쟁자를 늘리는가? 진짜 차익거래 전략은 공개되지 않는다. B2B 영업 노하우도 마찬가지다. 잘 되는 트레이딩 시그널은 비밀이고, 잘 되는 광고 운영도 비밀이고, 잘 되는 부동산 매물 정보도 비밀이다. 공개하는 순간 경쟁자가 들어와 본인 마진이 깎이기 때문이다. 이게 정보 비대칭이 작동하는 시장의 자연스러운 모습이다. 그렇다면 "AI로 월 1억" 같은 노하우가 유튜브에서 공개적으로 떠도는 이유는 뭔가. 가능성은 두 가지밖에 없다. 하나, 본업이 양산이 아니라 강의 판매로 바뀐 경우. 무료 영상은 강의를 팔기 위한 깔때기다. 둘, 양산 시장이 끝물에 접어들어 본인은 빠져나오면서 신규 진입자에게 마지막 강의를 팔아 마무리하는 경우. 이 경우 결제하는 신규 진입자가 시장의 마지막 보유자가 된다. 영어권에서는 이걸 bag holder라고 부른다. 남들 다 팔고 나간 다음 봉지를 들고 있는 사람이라는 뜻이다. 두 가설은 결과가 같다. 공개자의 인센티브는 시청자의 성공과 정렬되어 있...

YouTube's AI Slop Monetization Crackdown — The Tool Isn't the Problem, the Hand Holding It Is

이미지
The Day YouTube Pulled Monetization From Mass-Produced AI Channels July 15, 2025. YouTube changed exactly one word in the YouTube Partner Program guidelines. "Repetitious content" became "inauthentic content." Nothing seemed to happen at first. The company itself called it a "minor update," and the policy note was a single line. That single line was the warning shot. The actual crackdown landed in January 2026. The first to vanish were no-name faceless channels. By late January, larger channels started disappearing in twos and threes every week. Tubefilter ran a piece on January 29, 2026 unpacking the wave of bans. By February and March, channels with millions of subscribers were losing monetization or being terminated outright. By April, the running total looked like this: sixteen major AI-driven channels gone, a combined 4.7 billion lifetime views, 35 million subscribers, and roughly $10 million in annual revenue wiped out in a single quarter. Korea...

유튜브 AI 슬롭 수익화 정지 — 도구가 아니라 사람이 문제다

이미지
유튜브가 AI 양산 콘텐츠 수익화를 막은 날 2025년 7월 15일이었다. 유튜브가 YPP(YouTube Partner Program) 약관에서 단어 하나를 바꿨다. "repetitious content"가 "inauthentic content"가 됐다. 그땐 별 일 없어 보였다. 정책 노트 한 줄이었고, 본인들도 "minor update"라고 했다. 그게 신호였다. 본격적인 차단은 2026년 1월부터 들이닥쳤다. 처음에는 이름 모를 페이스리스 채널 몇 개가 사라졌다. 그러다 1월 말부터 매주 큰 채널이 한두 개씩 떨어져 나갔다. Tubefilter가 2026년 1월 29일자 기사에서 본격 단속을 다뤘고, 2~3월에는 구독자 수백만짜리 AI 채널이 통째로 수익화를 잃거나 채널이 닫혔다. 4월 시점에 정리된 통계로는 16개 메이저 AI 채널이 정리됐고, 누적 조회수 47억 회, 구독자 3,500만 명, 연 추정 수익 1,000만 달러가 한 분기 만에 증발했다. 한국이 흥미롭다. 2025년 12월 가디언이 전 세계 인기 유튜브 채널 1만 5,000개를 조사했는데, 그중 278개가 AI 전용 채널이었다. 누적 조회수 630억 회, 연 수익 추정 1,700억 원. 그리고 이 슬롭(slop) 콘텐츠를 가장 많이 본 나라가 한국이었다. 84.5억 회. 2위 파키스탄(53.4억), 3위 미국(33.9억), 4위 스페인(25.2억)을 다 합한 것보다 많다. 한국에서 인기 있는 '3분 지혜' 한 채널이 한국 전체 AI 슬롭 조회수의 4분의 1을 가져갔다. 그래서 코드 매일 짜고, AI랑 매일 일하는 사람 입장에서 이걸 어떻게 봐야 하는지를 좀 길게 풀어보고 싶었다. 정책에 화내거나 환영하는 건 둘 다 쉽다. 진짜 어려운 건 양쪽을 같이 보는 거다. 정책의 진짜 워딩, repetitious에서 inauthentic으로 먼저 단어부터. 유튜브가 바꾼 건 정확히 한 단어다. repetitious(반...

Building an LLM Robot with My Son — EP 9. 4-Month Retrospective, and What Comes Next

Building an LLM Robot with My Son — EP 9. 4-Month Retrospective, and What Comes Next When I wrote EP 0, there was a half-assembled acrylic chassis on the desk with one wheel turning in reverse. Now that robot walks to the kitchen on its own and finds a water glass. Can't pick it up — but it finds it. Four months. What Worked The agent harness approach held up Injecting domain knowledge through CLAUDE.md worked better than expected. The repeated context fatigue disappeared — AI wrote code that respected the project's rules without having to be reminded every session. The file started at ten lines and grew to 120. That growth is a record of the project itself. My son completed a behavior through eight prompts The scene from EP 5 is the one that stays with me. He sat down alone, iterated eight prompts, and built a working obstacle avoidance behavior. Never touched a line of code. "I made this" was not wrong. Apple Silicon local LLM actually works 112 tok/s on ...

Building an LLM Robot with My Son — EP 8. My Son Gave the AI Robot Its First Real Command

Building an LLM Robot with My Son — EP 8. My Son Gave the AI Robot Its First Real Command EP 6 connected the LLM server. EP 7 migrated to Pi. This episode: camera joins. Qwen2.5-VL-7B is now on the LLM server — the multimodal variant that accepts image input alongside text. Camera frames from the robot get sent with each request, and the model decides what to do based on what it sees. Camera + sensors + LLM + robot, all connected at once for the first time. Switching to Qwen2.5-VL From text-only Qwen2.5-7B to Qwen2.5-VL-7B. Same family — harness barely changed. Three things were different: New section added to CLAUDE.md: ## Vision Input - Camera resolution: 640×480 - Transmission format: JPEG (quality 70) - Frame timing: sent only at command request time (not continuous streaming) - Image + sensor data sent together ## LLM input format (vision mode) { "image": "<base64 encoded JPEG>", "sensor": "dist:45", "instruct...