이게 뭔 말이냐?
ai그림을 돌리는 사람들은 자기가 뭘 원하는지 안다고 생각하지만,
그건 착각 일 뿐. 전혀 그렇지 않다는 거임.
실험을 하나 해볼까?
준비물.
1. ai를 돌릴 사람
2. ai를 돌릴 컴퓨터
3. 취미로 그림을 그리는 사람
순서.
첫번째, ai를 돌릴 사람은 자기가 어떤 이미지를 뽑아내고 싶은지 마음속으로 결정한 후,
그 마음속의 이미지를 취미로 그림을 그리는 사람을 통해 수정과 반복을 거쳐 만족스러울 때까지 완성 하도록 한다.
두번째, 완성됐나? ai를 돌릴 사람은 자신이 뽑아내고 싶었던 그 이미지가 맞는지 확인한다.
완성이 되지 않았으면 다시 첫번째로 빽. 완성 됐으면 그 이미지를 손에 쥐고 세번째 순서로 ㄱㄱ.
세번째, 이제 ai를 돌릴 사람은 자신의 손에 쥐어진 이미지를 보면서 명령어를 입력해 ai를 돌린다.
이때! ai의 결과물의 이미지가 취미로 그림을 그리는 사림이 그려준 이미지와 같을까?
같을 때 까지 출력해보... 삐빅! 여기서 문제가 발생함.
이때 ai가 만들어낸 결과물이 자신의 손에 쥐어진 이미지와 일치할 확률이 얼마나 될까?
구도, 표정, 포즈, 소품, 디테일 등등...
당연히 일치 할 수가 없는 것이지. 절대로.
느낌 왔나?
그래, ai그림은 ai를 돌리는 사용자가 적당한 선에서 스스로 합리화 하고 끝내는 방법 밖에 없다는 것.
이게 요점이야.
-요약-
ai를 돌리는 사람은 자신이 원하는 이미지가 아니었음에도 불구하고
ai가 출력해준 결과물을 보고 만족해야만 하는 입장이며 자신이 의도한 것도 아니면서
마음에 드는 출력물이 나오면 "그래 이게 내가 원하던 거였어" 라는 모순적 합리화를 한다는 것임.
주종관계가 바뀌어버린 것도 모르고 '와! 발전속도가 무섭다!'라고 하는 사람들을 보면
무슨 블랙 코미디를 보는거 같아서 써봄...
뽑기돌리다가 튀어나온 픽뚤 5성에 눈이 돌아가버려서 "그래 내가 원했던건 너야"라고 하고 성공적인 가챠였다고 자기만족하는 거지.
100퍼 의도한대로 나왔다하더라도 그것에 대한 증거가 있는것도 아니니.. 생성ai 정당성에 대해 얘기할때는 정보비대칭으로 인해 증거가 없다며 정당하다와 사람의 학습은 저작권침해가 아니듯 긴빠이의 책임자도 아니고 도구지만 ai를 의인화해 ai의 학습도 아니여서 정당하다는 주체를 왜곡하는 주장을 주로 했으면서 ai가 뽑아낸게 자신의 이미지와 완전히 같은지에대한 증거도 없으면서 창작이며 저작권이 있어야한다며 ai의 공을 사용자에게로 돌릴려고 함.. 이랬다 저랬다가 너무 심함..
뽑기돌리다가 튀어나온 픽뚤 5성에 눈이 돌아가버려서 "그래 내가 원했던건 너야"라고 하고 성공적인 가챠였다고 자기만족하는 거지.
100퍼 의도한대로 나왔다하더라도 그것에 대한 증거가 있는것도 아니니.. 생성ai 정당성에 대해 얘기할때는 정보비대칭으로 인해 증거가 없다며 정당하다와 사람의 학습은 저작권침해가 아니듯 긴빠이의 책임자도 아니고 도구지만 ai를 의인화해 ai의 학습도 아니여서 정당하다는 주체를 왜곡하는 주장을 주로 했으면서 ai가 뽑아낸게 자신의 이미지와 완전히 같은지에대한 증거도 없으면서 창작이며 저작권이 있어야한다며 ai의 공을 사용자에게로 돌릴려고 함.. 이랬다 저랬다가 너무 심함..
AI만의 특징이 아니라 난수 기반 알고리즘의 단점입니다. 현대의 cg 작업 과정을 잘 모르시는 분들이 종종 오해하는 부분인데 3D 그래픽만 하더라도 일정 이상 스케일이 커질 경우 소프트웨어의 자동화된 시뮬레이션에 의존하는 영역이 커지기 마련이고, 랜덤한 seed 값과 파라미터를 계속 바꾸면서 원하는 결과가 나올 때까지 시뮬레이션을 반복할 필요가 있습니다. 그래서 종종 마음에 들지 않는 결과가 나오더라도 시간이 부족해서 후보정으로 때우는 경우도 많습니다. 생성형 AI는 이러한 cg 시뮬레이션보다 더욱 복잡하고 광범위한 벡터를 가지고 있으며 내부의 신경망 구조가 매우 복잡하기 때문에 작동 과정을 해석할 수 없어 소위 블랙박스 Ai라고 부릅니다.