진짜 몰라서 묻는건데
AI용으로 전세대 2대나 5080 2대보다 5090 1대를 써야할 이유가 어떤 거임?
내 생각보다 모델 사이즈가 16, 24보다 크고 40보단 작으면서 더 가벼워서
데이터센터용 GPU와 게이밍용 GPU 사이의 가성비를 요하는 경우가 많은건가?
실험 결과로는 병목 현상이 발생하고 GPU 등급의 한 단계 차이가 나는 정도가 학습속도 면에서 엄청 큰 차이를 내지는 않는다고 나왔던 거 같은데
진짜 몰라서 묻는건데
AI용으로 전세대 2대나 5080 2대보다 5090 1대를 써야할 이유가 어떤 거임?
내 생각보다 모델 사이즈가 16, 24보다 크고 40보단 작으면서 더 가벼워서
데이터센터용 GPU와 게이밍용 GPU 사이의 가성비를 요하는 경우가 많은건가?
실험 결과로는 병목 현상이 발생하고 GPU 등급의 한 단계 차이가 나는 정도가 학습속도 면에서 엄청 큰 차이를 내지는 않는다고 나왔던 거 같은데
더 빨리 더 많이 굴리고 싶어서? 어차피 연구비로 사는거면 내 주머니 비는것도 아니고.
ai용 글카를 사기엔 너무 비싸고 그나마 가장 큰 브이램과 성능으로 봤을때 90이 가장 나은 선택이라 그런듯
v램크기
5090한대를 쓰면 나중에 5090을 하나 더 쓸수 있잖아
회사차원에서 ai로 그림 뽑아낼게 있어서 그런건가? 으흠?
더 빨리 더 많이 굴리고 싶어서? 어차피 연구비로 사는거면 내 주머니 비는것도 아니고.
아하!
v램크기
그럼 결국 모델 사이즈 문제가 맞는거네
회사차원에서 ai로 그림 뽑아낼게 있어서 그런건가? 으흠?
5090한대를 쓰면 나중에 5090을 하나 더 쓸수 있잖아
아 그 발상은 없었다
ai용 글카를 사기엔 너무 비싸고 그나마 가장 큰 브이램과 성능으로 봤을때 90이 가장 나은 선택이라 그런듯
24기가도 살짝 오버되기 시작해서... 최적화로 맞출수는 있지만 슬슬...
그렇구나 슬슬 24도 감당이 안되나보네
ai용으로 글카 몇대만 써도 전기세 장난 아닌데 아무리 80이라지만 90 1개 쓸걸 80 2개나 쓰면 전력소모가 장난 아니라서 ?
원래는 그렇게 생각했는데 5090이 전력을 굉장히 더 퍼먹을거라는 말이 나오고 있길래 A100 같은 부류면 모를까 RTX 시리즈의 보통 사용자들은 일반적인 사용을 겸하는 경우가 많을텐데 그러면 이점이 더 퇴색되고 있는 거 아닌가 싶어서