엔비디아 GPU는 방대한 데이터를 처리해야 하는 AI 모델 학습에 적합한 것으로 평가받는다. 하지만 AI 모델이 점점 발전하면서 학습보다는 추론에 대한 수요가 높아지고 있다. 엔비디아와 AMD는 외부에 HBM을 연결하는 방식으로 칩을 설계하는데, 이로 인해 처리 시간이 늘어나 결국 챗GPT의 응답 속도가 느려진다는 것이다.

https://v.daum.net/v/20260203105354537
----
서로 아니라고 하지만
AI 교육에는 엔비디아 써도
운용에는 전용칩을 쓰는거 아니냐는
이야기가 나오고 있음