
AI 서버 견적을 다시 짜고 있거나, 내 노트북에서 로컬 AI를 돌려볼 생각이라면 요즘 AMD를 그냥 지나치기 어렵습니다. 2025년 10월부터 2026년 2월까지 OpenAI, Oracle, Meta가 차례로 AMD 기반 대형 AI 인프라 계획을 공개했기 때문입니다. 아직 엔비디아의 지위를 뒤집었다고 말할 단계는 아니지만, AMD가 대안에서 실전 공급자로 올라온 장면은 분명해졌습니다.
빅테크가 AMD를 다시 보기 시작한 이유
먼저 확인된 사실부터 보겠습니다. OpenAI는 2025년 10월 AMD와 6GW 규모의 다년 계약을 발표했고, 첫 1GW 배포는 2026년 하반기 시작 예정이라고 밝혔습니다. Meta도 2026년 2월 최대 6GW 규모의 다년 협력을 발표했으며, 첫 배포는 MI450 아키텍처 기반 커스텀 GPU로 2026년 하반기 출하를 예고했습니다.
Oracle의 발표는 결이 조금 다릅니다. Oracle은 2025년 10월, 2026년 3분기부터 AMD Instinct MI450 5만 개로 구동되는 공개 AI 슈퍼클러스터를 제공하겠다고 밝혔습니다. OpenAI와 Meta가 전력 단위의 장기 배포를 말했다면, Oracle은 실제 고객이 쓸 수 있는 초기 GPU 수량과 시점을 먼저 내놨다고 보는 편이 정확합니다.
세 발표를 한 줄로 묶으면 의미는 선명합니다. AMD가 더 이상 테스트용 보조 카드가 아니라, 실제 AI 인프라 확장 계획 안으로 들어오기 시작했다는 점입니다. 공급망 분산, 비용 협상력, 추론 워크로드 확대가 그 배경으로 읽힙니다.
MI450은 실전 카드, MI400은 다음 수순
이번 협력의 중심에는 MI450이 있습니다. OpenAI, Meta, Oracle 발표 모두 2026년 실제 배포 축으로 MI450을 지목했습니다. Oracle 발표 기준으로 MI450은 GPU당 최대 432GB HBM4를 내세우고 있고, Meta 발표에서는 MI450 아키텍처 기반 커스텀 GPU가 언급됩니다. 즉, AMD의 이야기는 아직 로드맵 소개에 머무르지 않고 올해 배포 일정과 연결돼 있습니다.
반면 MI400 시리즈는 다음 장면에 가깝습니다. AMD는 2025년 공식 블로그에서 2026년 등장할 차세대 MI400 시리즈와 Helios 랙 설계를 예고하며 최대 432GB HBM4, 19.6TB/s 메모리 대역폭 같은 목표 수치를 공개했습니다. 다만 이 부분은 출시 완료 제품이 아니라 공식 프리뷰이므로, 성능과 일정은 확정값처럼 읽지 않는 편이 안전합니다.
| 구분 | MI450 | MI400 시리즈 |
|---|---|---|
| 주요 파트너 | OpenAI, Meta, Oracle | AMD Helios 레퍼런스 디자인(공식 프리뷰) |
| 아키텍처 | MI450 아키텍처 기반 | 차세대 아키텍처(공식 프리뷰) |
| 메모리 | 최대 432GB HBM4 (Oracle 발표) | 최대 432GB HBM4 (AMD 프리뷰) |
| 배포 시작 | 2026년 하반기~3분기 | 2026년 예정(일정 미확정) |
| 주요 용도 | 대규모 훈련·추론 | 차세대 랙 스케일 훈련·추론 |
그래서 엔비디아 판이 바로 바뀌나
여기서 과장하면 글이 약해집니다. 2026년 현재도 AI 반도체 시장의 기준선은 여전히 엔비디아입니다. CUDA 생태계, 개발자 기반, 소프트웨어 성숙도, 실제 운영 레퍼런스 수에서 엔비디아가 앞선다는 점은 바뀌지 않았습니다.
그럼에도 이번 AMD 협력이 중요하게 보이는 이유는, 비교의 기준이 단순 성능표가 아니라 실제 배포 가능성으로 옮겨가고 있기 때문입니다. 특히 추론 워크로드는 무조건 최고 성능 한 장보다, 충분히 빠르고 더 잘 공급되는 인프라가 유리할 때가 많습니다. OpenAI와 Meta가 AMD를 선택한 배경도 이 지점에서 읽는 편이 자연스럽습니다.
생태계
배포 가시성
로컬 AI 접근성
내 PC에도 영향이 오는 이유
데이터센터 이야기로만 끝나면 체감이 약합니다. 그런데 AMD는 CES 2026에서 Ryzen AI 400과 Ryzen AI Pro 400 시리즈를 공개했고, 주요 OEM 제품은 2026년 1분기부터 순차 출시된다고 밝혔습니다. 개발자용 Ryzen AI Halo 플랫폼도 2026년 2분기 도입 예정입니다.
같이 봐야 할 건 ROCm 7.2입니다. AMD는 ROCm 7.2가 Windows와 Linux에서 Ryzen AI 400 시리즈를 지원한다고 발표했습니다. 또 ROCm 소프트웨어 전반에서 지난 1년간 AI 성능이 최대 5배 개선됐다고 설명했습니다. 다만 이 수치는 AMD 측 테스트 기준이므로, 실제 체감 성능과 안정성은 사용하는 프레임워크와 워크로드에 따라 달라질 수 있습니다.
중요한 변화는 방향입니다. 예전의 AMD 로컬 AI 이야기가 리눅스에 익숙한 일부 사용자 중심이었다면, 이제는 Windows 환경까지 포함해 진입 장벽을 낮추려는 흐름이 더 뚜렷해졌습니다. 아직 CUDA와 동급이라고 말하기는 어렵지만, 적어도 직접 써볼 이유는 분명히 생겼습니다.
지금 믿어도 되는 결론
지금 단계에서 가장 방어적인 결론은 이겁니다. AMD가 엔비디아를 이겼다고 말하기는 이르지만, 2026년의 AMD는 더 이상 가능성만 말하는 회사도 아닙니다. OpenAI, Meta, Oracle처럼 이름이 큰 고객이 실제 일정과 규모를 붙여 공개했고, PC 쪽에서도 Ryzen AI 400과 ROCm 7.2로 로컬 AI 진입선을 낮추고 있습니다.
독자 입장에서는 이렇게 정리하면 됩니다. AI 인프라를 보는 사람에게 AMD는 이제 무시하기 어려운 두 번째 선택지이고, 로컬 AI를 해보려는 사용자에게는 예전보다 현실적인 실험 대상이 됐습니다. 다만 투입 규모가 큰 데이터센터 성능과 Windows 기반 ROCm 경험은 올해 후반 실제 운영 사례가 더 쌓여야 판단이 단단해집니다.
신뢰 수준: 중상. 본문 핵심 사실은 AMD, OpenAI, Oracle의 공식 발표를 중심으로 정리했습니다. 다만 MI450의 실성능, MI400의 최종 사양, ROCm의 현장 안정성은 아직 진행형입니다.
주의: 본 글은 공개된 기업 발표와 공식 문서를 바탕으로 정리한 산업 분석입니다. 향후 배포 일정, 제품 사양, 실제 성능은 바뀔 수 있으므로 투자 판단이나 구매 결정에는 추가 검증이 필요합니다.


