요새 얘기 나오는 것 중 하나가
서버들의 미친듯한 전기사용량과 무제한으로 늘어나는 데이터센터인데
중복되는 모든 데이터가 다 지워진다면 부하가 얼마나 줄어들까??
만든거 또 복사하고 또 복사하고
또 업로드하고 또 업로드하고 그런것들
요새 얘기 나오는 것 중 하나가
서버들의 미친듯한 전기사용량과 무제한으로 늘어나는 데이터센터인데
중복되는 모든 데이터가 다 지워진다면 부하가 얼마나 줄어들까??
만든거 또 복사하고 또 복사하고
또 업로드하고 또 업로드하고 그런것들
중복되는 데이터를 검증하기위해 또 데이터를 쓰고
으웁
서버 주거
주거어
중복되는 데이터를 검증하기위해 또 데이터를 쓰고
대용량 파일은 보통 영상파일이다 보니, 픽팍 처럼 해쉬가 동일 할 경우 같은 파일 취급 하는 쪽으로 바뀌지 않았나?
같은회사나 동일 서버공급자 안에서야 가능할텐데, 전체적인게 궁금한거지
루리웹같은 사이트는 이미지사용이 많으니 중복 방지위한 기술들이 서버단이랑 클라이언트에 프로그래밍되있는데 일반 데이터센터의 클라우드 서비스하는곳은 좀 다른 접근임 서비스랑 운영하는 주체가 뭘 하느냐에 따라 글에 적은 내용의 접근방법이 다름
ㅇㅇ 생각해보면 웹사이트가 달라도 호스팅서버 제공하는곳이 동일하면 내부에서 정리하려나? 내부 세입자의 자산을 건드는 꼴이니 중복이더라도 정리하진 않을 것 같은데
보통은 데이터 센터를 이용하는 이용자가 신경쓸일임 왜냐면 데센들은 많이쓸수록 돈이되니 아무 문제없지 그래서 점점 대규모가 되가는것이고 거점형으로 되가는중이지