전쟁의 전장, 모델이 아니라 스택이다
이 판을 “프런티어 랩 전쟁”이라고 부르기 시작한 이유는 단순하다. 더 똑똑한 모델 하나 뽑는 싸움이 아니라, 모델이 돌아가고 팔리고 믿어지는 ‘전체 스택’ 싸움으로 바뀌었기 때문이다. 학계식으로 말하면 모델은 이제 “일반 목적(general‑purpose)”을 넘어 “에이전트(autonomous operation)” 쪽으로 끝없이 밀리고 있다. 최근 국제 합동 과학 보고서인 International AI Safety Report 2026도 지난 1년 사이 코딩, 수학, 자율적 작업에서 능력이 크게 올랐지만 여전히 들쭉날쭉한 실패가 남아 있다고 정리한다. 동시에 성능 향상은 ‘훈련 한 방’보다 훈련 이후 단계(후처리·추론 시 더 많은 계산을 쓰는 방식 등)에서 점점 더 많이 나온다고 설명한다. 사람 입장에선 “모델이 더 많이 생각하도록 돈을 더 태우면 더 잘한다”가 안전하고 현실적인 요약이다.
이런 변화는 비용을 폭발시킨다. 대규모 데이터센터·전력·칩·냉각·네트워크가 들어가는 “AI 공장” 게임이 됐다는 얘기다. 실제로 미국 빅테크의 연간 AI 중심 자본지출이 2026년에 합계 6,300억 달러 이상으로 전망된다는 보도도 나왔다. “성능=모델”이 아니라 “성능=모델×인프라×제품”이라는 공식이 굳어질수록, 누가 더 큰 전장을 점령하느냐가 승부를 가른다.
그런데 여기서 재밌는 변수가 하나 더 끼어든다. ‘신뢰’다. AI가 사람의 의사결정 순간—코드를 바꾸고, 보고서를 쓰고, 쇼핑을 하고, 건강 정보를 묻는 순간—에 더 깊이 들어갈수록 “이 답이 누구 편인가”라는 질문이 커진다. 이 질문이 곧바로 광고·수익모델·프라이버시·안전정책으로 번진다. 그래서 2월 첫째 주에 한쪽은 “더 강력한 에이전트”를 내놓고, 다른 한쪽은 “광고가 AI에 들어온다”는 논쟁이 붙고, 그 와중에 슈퍼볼 광고판은 AI 얘기로 도배돼버린다.
이 흐름을 이해하는 데 도움이 되는 배경이 하나 있다. Frontier Model Forum 같은 업계 협의체가 “프런티어 모델”의 안전한 개발을 내걸고 표준·평가·정보공유를 추진해 왔다는 점이다. 즉, 겉으로는 “같이 안전하게 가자”였고, 속으로는 “각자 스택을 누가 더 빨리 깔아버리나”였다. 협의체가 만든 AI 안전 연구기금 같은 장치도 존재하지만, 시장의 속도와 광고판의 속도는 늘 더 빠르다.
오퍼스 최신 모델이 던진 메시지, 길게 보고 팀으로 일한다
이번 국면에서 가장 상징적인 장면 중 하나가 Anthropic의 Claude Opus 4.6 출시다. 정확히는 “대화형 챗봇이 더 말 잘하는 정도”가 아니라, “오래 붙잡고 일을 끝내는 방식”이 품질 경쟁의 중심으로 올라왔다는 선언에 가깝다. Anthropic은 Opus 4.6이 이전 세대보다 계획을 더 신중히 세우고(agentic planning), 도구 호출·서브에이전트 병렬 작업을 더 잘하며, 큰 코드베이스에서 더 안정적으로 움직인다고 설명한다. 그리고 Opus‑클래스 모델로는 처음으로 ‘백만 토큰 컨텍스트’를 베타로 제공한다고 못 박는다(단, 기본 컨텍스트는 20만 토큰이고 백만 토큰은 개발자 플랫폼 베타로 분리돼 있다).
여기서 “백만 토큰”이란 말이 사람을 자극한다. 하지만 포인트는 숫자 크기 자체가 아니라 “컨텍스트가 커지면 생기는 병”을 얼마나 덜 앓느냐에 있다. Anthropic은 대화가 길어질수록 앞부분을 잊거나 맥락이 삭는 현상을 “context rot”이라고 부르며, Opus 4.6이 장문 문서에서 숨은 단서 찾아내는 테스트(OpenAI MRCR 계열의 다중‑needle long‑context 평가)에서 큰 폭으로 나아졌다고 주장한다. 즉, 메모리 용량이 커진 것만큼 “실제로 그 메모리를 써먹는 능력”을 강조한다.
또 하나의 변화는 “생각의 레버”를 API에서 노출한 점이다. Anthropic은 Opus 4.6/ Sonnet 4.6에 adaptive thinking(상황에 따라 모델이 더 깊게 생각할지 말지 결정)과 effort 파라미터(생각 강도)를 전면으로 내세운다. 긴 작업에서 컨텍스트가 차기 전에 자동으로 요약·압축해 자리를 만드는 context compaction도 베타로 제공한다. 이건 사용자 경험으로 치면 “대화가 길어지면 말을 줄여서라도 계속 일하게 만드는 자동 비서”에 가깝다.
그리고 결정적으로, “혼자 똑똑한 모델”에서 “여럿이 팀처럼 돌아가는 에이전트”로 넘어가려는 시도가 있다. Anthropic은 Claude Code에서 agent teams(복수 에이전트 병렬 협업)를 연구 프리뷰로 내놨다고 밝힌다. 읽을 게 많은 코드베이스 리뷰처럼 병렬화가 잘 먹히는 작업을 목표로 삼는다. 말하자면, 이제 코딩 AI의 경쟁은 “한 번에 완벽한 패치”가 아니라 “여러 명이 나눠 읽고 합쳐 결론 내는 개발팀” 흉내로 간다.
여기까지를 한 문장으로 줄이면 이렇다. Opus 4.6의 ‘도발’은 성능표가 아니라 작업 방식이다. 길게 들고 가고, 요약을 자동으로 하고, 필요하면 여러 에이전트를 병렬로 돌려서 “사람 팀이 하던 일을 스택 안으로 집어넣겠다”는 메시지다.
코덱스가 내민 메시지, 코딩 모델이 아니라 컴퓨터에서 일하는 동료다
같은 주에 OpenAI는 GPT‑5.3‑Codex를 내놓으며 “코딩 에이전트의 일반화”를 정면으로 밀었다. 공개 글의 핵심은 세 개다.
첫째, Codex를 ‘코드 생성기’가 아니라 “긴 작업을 수행하는 에이전트”로 정의한다. 단순히 코드를 쓰는 걸 넘어 연구·도구 사용·복잡한 실행을 포함한 장시간 업무를 겨냥하고, 작업 중에 사람과 상호작용하며 방향을 수정하는 “동료 같은 인터랙션”을 강조한다.
둘째, 벤치마크를 ‘코딩 능력’이 아니라 ‘에이전트 능력’으로 잡았다. OpenAI는 GPT‑5.3‑Codex가 SWE‑Bench Pro, Terminal‑Bench 2.0, OSWorld‑Verified, GDPval 같은 평가에서 강한 성능을 보인다고 주장한다. 이 중 SWE‑Bench Pro는 실제 소프트웨어 저장소 이슈를 해결하는 장기 과제형 평가로 알려져 있고, Terminal‑Bench는 터미널 환경에서 현실적인 작업을 끝까지 수행하는 능력을 본다. 즉 “함수 하나 잘 짜냐”가 아니라 “레포지토리/툴/실행까지 포함한 전 과정을 제어하냐”로 평가축이 옮겨간다.
셋째, ‘자기개선’이라는 단어가 왜 요즘 갑자기 많이 들리는지에 불을 붙였다. OpenAI는 GPT‑5.3‑Codex가 “자기 자신을 만드는 과정에 도움이 된 첫 모델”이라고 표현하면서, 초기 버전이 훈련 디버깅·배포 관리·테스트 진단 등을 가속했다고 설명한다. 여기서 중요한 건 “모델이 혼자 진화했다”가 아니라 “사람이 하던 개발·운영 업무의 일부를 모델이 맡으면서 개발 속도가 올라갔다”는 사실이다. 이 대목이 이후 ‘재귀적 자기개선’ 논쟁과 바로 연결된다.
한편 같은 제품군 안에서 “속도 전용” 카드도 냈다. GPT‑5.3‑Codex‑Spark는 실시간 코딩에 초점을 맞춘 연구 프리뷰로, 12.8만 토큰 컨텍스트, 텍스트 전용, 초저지연(초당 1,000토큰 이상 생성) 같은 스펙이 공개됐다. 여기서 흥미로운 점은 하드웨어다. OpenAI는 Spark가 Cerebras Systems의 Wafer‑Scale Engine 3에서 돌아가며, 이를 “지연시간 우선(latency‑first) 서빙 티어”로 통합했다고 밝힌다. 거대한 GPU 풀에서 ‘최저 단가 토큰’을 뽑는 전략과 별개로, “손이 닿는 즉시 반응하는 코딩”에는 다른 인프라를 붙이는 식이다.
반대로 대형 모델(5.3‑Codex 본체)은 NVIDIA의 GB200 NVL72 같은 랙‑스케일 시스템 위에서 훈련되고 서빙된다고 명시한다. 즉, 같은 회사가 “초저지연은 Cerebras, 대규모는 NVIDIA”처럼 목적에 따라 하드웨어 카드를 분화시키는 모습이다. 이게 바로 ‘스택 전쟁’의 냄새다. 모델 이름이 아니라, 어떤 작업을 어떤 인프라로 돌려 어떤 경험을 주느냐가 경쟁이 된다.
마지막으로, 안전 프레이밍도 전쟁의 일부다. OpenAI는 GPT‑5.3‑Codex를 사이버 보안 과제에서 “높은 역량(high capability)” 범주로 분류했다고 밝히며, 위험도가 높다고 판단되면 일부 요청을 더 낮은 모델로 라우팅하는 식의 완화책도 언급한다. “더 유능해질수록 더 조심하게 배포한다”는 메시지다.
백만 토큰이 바꾸는 것과 못 바꾸는 것
이제 “백만 토큰”이라는 마법의 주문을 현실로 번역해보자. 토큰은 간단히 말해 모델이 텍스트를 처리할 때 쓰는 잘게 부순 조각이다. 영어 기준으로는 대략 1토큰이 4글자 정도라는 식의 경험칙이 널리 쓰이고, 언어·문맥에 따라 한 글자부터 한 단어까지 다양하게 쪼개진다.
컨텍스트 윈도는 그 조각을 “이번 요청에서” 얼마나 쌓아둘 수 있느냐를 뜻한다. 쉽게 비유하면, 모델에게 건네는 자료 더미의 크기이자 작업대의 넓이다. OECD가 정의한 AI 시스템 개념에서 “자율성과 배포 후 적응성”을 언급하듯이, 오늘날 에이전트형 모델은 입력을 받고 출력(예측·추천·콘텐츠·결정)을 만들어 환경에 영향을 준다. 그 과정에서 “얼마나 많은 입력·대화 이력·자료를 한 번에 들고 가느냐”가 성능의 병목이 된다.
하지만 넓은 작업대가 곧바로 좋은 결과를 보장하진 않는다. 이유는 두 가지다.
첫째, 기억 용량과 기억 활용 능력은 다르다. “needle‑in‑a‑haystack” 류 테스트가 오랫동안 long‑context를 대표해 왔지만, 단순한 문자열 찾기만 잘한다고 해서 복잡한 문서에서 맥락을 유지하며 추론까지 잘하는 건 아니다. 이 문제를 보완하려고 MRCR처럼 비슷한 단서 여러 개 중 ‘몇 번째 단서’를 정확히 찾게 만드는 평가가 등장했고(OpenAI가 데이터셋을 공개해 재현을 돕는다), Anthropic도 이런 유형에서의 상승을 크게 홍보한다.
둘째, 길어질수록 ‘썩는다’. 맥락이 길어지면 모델이 앞부분을 희미하게 만들거나, 중요도를 잘못 배분하거나, 중간에 자기가 만든 요약을 사실처럼 떠받들어버리는 식의 오류가 생긴다. Chroma의 분석 글처럼 이 현상은 “긴 컨텍스트가 대체로 해결됐다”는 인식에 반기를 든다. 그래서 요즘 제품들은 큰 숫자(백만 토큰)를 내세우면서도 동시에 compaction(요약 압축), effort 조절(더 생각하기), 멀티 에이전트(분업) 같은 ‘운영 기술’을 패키지로 묶는다. 컨텍스트는 메모리 용량이 아니라 운영 시스템이 되기 시작한다.
그럼 사용자 입장에서 백만 토큰은 어디에 이득이 크냐. 대표적으로 세 가지다.
하나는 “한 번에 전체를 넣고, 전체를 기준으로 수정하는” 작업이다. 대형 레포지토리 코드 리뷰, 복잡한 계약서 묶음 검토, 사내 정책·회의록·기술 문서가 뒤섞인 상태에서 의사결정을 해야 하는 업무가 여기에 들어간다. Anthropic이 Opus 4.6을 “큰 정보 덩어리에서 일관성을 유지한다”는 방향으로 포지셔닝하는 이유가 명확해진다.
다른 하나는 “긴 호흡의 에이전트 작업”이다. 계획→도구 호출→결과 확인→재계획을 여러 번 반복하면 대화 이력이 길어질 수밖에 없다. 이때 단순히 컨텍스트가 커지는 것보다, compaction처럼 오래된 대화를 잘 정리해 다음 단계로 넘기는 기능이 실전에서 더 중요해진다.
마지막은 “사람이 귀찮아하는 연결 작업”이다. 예를 들어 스프레드시트를 읽고 구조를 만들고, 그 결과를 슬라이드로 옮기고, 스타일 가이드를 맞추고, 근거를 추적하는 일은 대개 사람 시간을 피곤하게 갉아먹는다. Anthropic이 Excel/PowerPoint 연동을 전면에 내세우는 이유도 결국 여기다. 모델이 문서·도구·브랜드 스타일을 한 번에 들고 가야 “실무물”이 된다.
결론적으로 백만 토큰은 AGI의 증거라기보다, 제품이 “문서와 툴”이라는 현실을 진짜로 받아들이기 시작했다는 신호에 가깝다. 그리고 그 현실은 곧바로 다음 주제로 이어진다. 자기개선이라는 단어가 왜 시장에서 갑자기 폭주하는지다.
재귀적 자기개선, 신화와 현실의 접점
재귀적 자기개선(recursive self‑improvement)은 원래 “더 똑똑해진 시스템이 자기 자신을 더 개선하는 능력도 같이 키우면서 폭주적으로 성장하는 피드백 루프”를 뜻한다. 정의 자체만 보면 무섭게 매끈하다. “스스로를 개선→개선 능력도 개선→더 빠른 개선…” 같은 구조다.
이 논의를 대중적으로 각인시킨 고전은 Irving John Good의 1960년대 글이다. 그는 “초지능 기계는 더 나은 기계를 설계할 수 있고, 그 결과 지능 폭발이 일어날 수 있다”는 방향의 사고를 펼쳤다. 요지는 “첫 초지능은 마지막 발명일 수도 있다”는, 지금도 AI 담론에서 자주 재가열되는 문장들이다.
그런데 2026년의 ‘자기개선’ 논쟁은 이 고전적 의미의 RSI와는 결이 다르다. 오늘 벌어지는 일은 보통 두 층으로 나뉜다.
첫 번째 층은 “사람이 만든 평가·훈련 파이프라인 속에서 모델이 개발 생산성을 올리는 것”이다. OpenAI가 GPT‑5.3‑Codex가 자기 훈련 디버깅·배포·평가를 도왔다는 설명이 바로 여기에 들어간다. 모델이 자기 가중치를 마음대로 뜯어고친 게 아니라, 사람이 유지하던 빌드/테스트/운영 업무를 모델이 일부 대체하며 개발 사이클을 압축한 것이다. 이건 엄밀히 말해 “AI가 AI를 만든다”라기보다 “AI가 AI 개발팀의 업무를 먹는다”에 가깝다.
두 번째 층은 “에이전트가 스스로 루프를 돌며 결과물을 개선하는 것”이다. 예컨대 웹게임을 며칠 동안 자율적으로 개선시키는 실험을 OpenAI가 블로그에서 소개한다. 여기서 개선 루프의 엔진은 모델 자체라기보다, 실행·테스트·피드백을 제공하는 외부 환경과 스캐폴딩(도구 호출, 평가 기준, 리트라이 전략)이다. 다시 말해, ‘재귀’의 상당 부분은 소프트웨어 공정 쪽에서 나온다.
이 지점에서 중요한 질문이 생긴다. 그럼 이건 RSI로 가는 길이냐, 아니면 “그럴듯한 착시”냐. 답은 양쪽 다를 수 있다.
RSI가 진짜로 위협적이려면 (1) 시스템이 스스로 목표를 세우고, (2) 모델/툴/인프라를 바꾸는 실질적 권한이 있고, (3) 그 변화가 장기적으로 누적되어 성능을 계속 끌어올려야 한다. 지금은 대체로 (2)와 (3)에서 ‘인간과 조직의 안전장치’가 강하게 걸려 있다. 동시에, 제품이 “에이전트 팀” “자율적 장시간 작업” “추론 노력 조절” 같은 기능을 들고 나오면 (1)의 그림은 점점 또렷해진다. 그래서 이 주제는 늘 과장과 과소평가가 같이 붙어 다닌다.
여기서 안전이 왜 다시 튀어나오냐면, 국제 보고서는 “리스크 관리 프레임워크가 아직 미성숙하고 증거 공백이 크다”고 말하면서도, 동시에 모델이 더 자율적으로 작동할수록 악용·오작동·시스템적 위험이 커질 수 있다고 분류한다. 그리고 실제 기업들도 “사이버” 같은 영역에서 강한 모델을 더 조심스럽게 다룬다는 규칙을 공개적으로 서술하기 시작했다.
또 다른 축은 “모델 자체가 악의를 갖는가” 같은 SF가 아니라, 자율적 도구 사용이 늘어날수록 ‘사소한 방해’가 커질 수 있다는 우려다. 예컨대 Anthropic 관련 보도에서는 고도화된 모델이 특정 조건에서 위험한 악용(화학무기 등)과 연관될 수 있다는 평가를 언급하며, 안전 테스트를 강화했다고 전한다. 이런 우려가 맞든 틀리든, 시장이 지금 목격하는 건 “능력 상승이 안전·정책·홍보를 동시에 끌고 간다”는 패턴이다.
그래서 RSI 담론을 2026년식으로 번역하면 이렇게 된다. “모델이 스스로를 개조해 초지능이 된다”는 직선이 아니라, “모델이 사람의 개발·운영·의사결정 업무를 더 먹으면서, 시스템 전체가 더 빠르게 업그레이드되는 간접 루프”가 점점 강해진다. 그리고 이 간접 루프가 시장과 사회를 더 빨리 흔든다.
슈퍼볼 광고 소동, AI의 신뢰 게임이 본격화된다
이제 이 모든 게 왜 하필 “슈퍼볼 광고 소동”으로 폭발했는지 보자. Super Bowl LX는 Levi’s Stadium, Santa Clara에서 열렸고, 광고 단가 자체가 ‘국가 행사급’ 이벤트다. 이 무대에 AI 이야기가 밀려 들어온 건 우연이 아니다.
첫째, AI는 이제 소비자 브랜드이자 인프라 브랜드다. Adweek 등은 iSpot 자료를 인용해 슈퍼볼 광고 중 약 4분의 1 가까이가 AI를 다루거나 AI로 제작됐다고 전한다(66개 중 15개, 23%). “한두 개가 눈에 띄는 정도”가 아니라 “광고판의 공기 자체가 AI”였다는 뜻이다.
둘째, 그 과잉 노출이 역풍을 만들었다. The Verge는 2026년 슈퍼볼에서 생성형 AI로 만든 광고가 너무 많았고, 오히려 “싸구려/대충 만든 느낌”을 드러냈다고 혹평한다. 광고가 30초에 800만~1,000만 달러 수준인 무대에서, “싸고 빠르게 만들 수 있다”는 장점이 “티가 나는 단점”으로 뒤집힌 셈이다. 이 순간부터 AI는 기술이 아니라 미감과 신뢰의 문제로 소비된다.
셋째, 같은 시간대에 AI 회사끼리 “광고를 둘러싼 가치관 싸움”을 공개적으로 시작했다. Anthropic이 “AI에 광고가 들어온다, 하지만 Claude는 아니다”라는 메시지로 슈퍼볼 광고를 집행하며 Sam Altman의 반발을 샀다는 보도가 나왔고, 실제로 양사의 설전은 업계 경쟁이 ‘기술’에서 ‘수익모델·중립성’으로 확장됐음을 상징한다.
넷째, 이 싸움은 실제 제품 정책과 딱 맞물려 있었다. OpenAI는 1월에 광고에 대한 원칙(답변과 광고의 분리, 대화 프라이버시, 데이터 판매 금지 등)을 공개했고, 2월에는 미국에서 무료·Go 요금제의 로그인 성인 사용자 대상으로 광고 테스트를 시작했다고 공식적으로 알린다. 광고는 “스폰서드”로 표시되고 답변과 시각적으로 분리되며, 광고가 답변을 바꾸지 않는다는 ‘answer independence’를 반복해서 강조한다. 한마디로, “광고는 깔지만 답은 통제한다”가 공식 입장이다.
문제는 사람들이 그 분리를 얼마나 믿느냐다. Financial Times는 OpenAI의 광고 도입을 막대한 인프라 비용과 수익 압박의 결과로 해석하면서도, 신뢰 훼손 가능성과 광고 생태계의 변화를 함께 짚는다. 즉, 이건 “돈 벌기 위해 광고 넣는다”가 아니라 “AI 인터페이스가 검색·미디어 다음 세대의 광고판이 될 수 있다”는 선언이다. 그래서 경쟁사들이 거기에 먼저 ‘도덕적 깃발’을 꽂으려 한다.
다섯째, 광고 소동은 프라이버시 공포와도 결합했다. 슈퍼볼 광고 중 Ring의 “Search Party” 기능(동네 카메라 네트워크를 동원해 잃어버린 반려견을 찾는 콘셉트)이 큰 반발을 샀고, 며칠 뒤 Ring이 Flock Safety와의 제휴를 종료했다는 보도가 이어졌다. 광고는 ‘반려견 찾기’였지만, 사람들은 “이거 사람 찾는 데도 쓰이는 거 아니냐”는 감각적 공포를 먼저 느꼈다. 이 논쟁에 Electronic Frontier Foundation 같은 단체의 비판이 엮이며, “AI가 편리해질수록 감시 인프라가 된다”는 오래된 불신이 다시 살아난다.
이 모든 사건은 한 줄로 묶인다. 프런티어 랩 전쟁의 다음 라운드는 ‘성능 경쟁’이 아니라 ‘신뢰 경쟁’이다.
- 모델은 길게 기억하고(백만 토큰), 오래 일하고(장시간 에이전트), 팀처럼 분업한다(멀티 에이전트).
- 그래서 제품은 사람의 “결정 순간”을 더 많이 차지한다(코딩, 문서, 연구, 구매).
- 그러면 돈과 권력이 따라 들어오고(광고), 사람들은 답의 중립성을 의심한다.
- 동시에 감시·프라이버시 불안이 UX 한 방에 폭발한다(Ring 사례).
즉, “슈퍼볼 광고 소동”은 단순 해프닝이 아니다. AI가 기술에서 ‘사회적 인프라’로 넘어가면서 피할 수 없이 치르는 통과의례다. 그리고 이 통과의례가 끝나면, 프런티어 랩들은 모델 스펙보다 더 어려운 시험을 치르게 된다. 사람들에게 “네 편”이라고 설득하는 시험이다.
참고 문헌
- Anthropic, Claude Opus 4.6 출시 및 기능(백만 토큰 컨텍스트 베타, adaptive thinking, effort, context compaction, agent teams, 가격 정책).
- OpenAI, GPT‑5.3‑Codex 소개(에이전트형 코딩, 벤치마크, “개발에 활용”, 보안 완화, NVIDIA GB200 NVL72 언급).
- OpenAI, GPT‑5.3‑Codex‑Spark 소개(Cerebras WSE‑3 기반, 초저지연, 12.8만 토큰 컨텍스트).
- OpenAI, ChatGPT 광고 도입 원칙 및 테스트 공지(답변 독립성, 라벨링·분리, 대상 요금제/지역).
- International AI Safety Report 2026(일반 목적 AI의 능력·리스크·관리 프레임, 최근 발전의 성격과 한계).
- OECD, AI 시스템 정의 업데이트(자율성과 배포 후 적응성 포함).
- 벤치마크·데이터셋: OpenAI MRCR(Hugging Face), SWE‑Bench Pro(OpenReview/Scale), Terminal‑Bench(arXiv).
- 토큰·컨텍스트 설명: OpenAI 토큰 가이드, Claude 컨텍스트 윈도 문서.
- RSI 고전·정의: I.J. Good의 “intelligence explosion” 논지(스캔본), aisafety.info의 RSI 정의.
- 슈퍼볼 LX 기본 정보(일정/장소): NFL 및 공개 요약 자료.
- 슈퍼볼 광고에서 AI 비중(iSpot 인용) 및 업계 분석: Adweek, Fast Company.
- AI 광고 과잉·품질 논평: The Verge.
- OpenAI–Anthropic 슈퍼볼 광고 경쟁 보도: Reuters, The Verge.
- Ring 광고 반발 및 Flock 제휴 종료 보도: Business Insider, AP, The Guardian, The Verge.
- 인프라 투자 규모(빅테크 AI CAPEX) 보도: Reuters, Axios.