alignment를 정렬이라고 왜 해석하는지 모르겠음. 그런 뜻도 있지만 컴퓨팅분야에서 정렬이라고 하면 sort가 먼저생각나기 때문에 이런식으로 해석해선 안됨
alignment를 조정이라고 해석해야 맞다고 봄. 실제로 alignment는 인공지능이 인간의 의도와 다르게 행동하지 못하도록 학습시키는것인데 왜 이걸 정렬이라고 하는건지. 지들이 용어 쓰면서도 이상하다고 생각안하나
그럼 부모님과 자식의 목표를 같게 만드는 것을 목표 조정이라고 하나요? 이상한 예를 드신 거구요. the alignment problem이 나온 건 AI를 학습을 통해서 원하는 목표를 가지게 하는 과정을 align이라는 표현을 사용해서 나온 거구요. 이것도 마치 학습을 통해서 조금씩 조금씩 방향을 틀어서 목표에 일치시키기 때문에 directional한 느낌 때문에 사용하는 표현이구요.
The alignment problem이 뭔지 알아야 번역이 정확한지 아닌지 알겠죠. 첫번째 현재까지 우리는 ai에게 직접적으로 목표를 정해줄 방법이 없습니다. 다 간접적인 방식으로 ai가 우리가 원하는 행동을 하도록 훈련 학습을 할 뿐이죠. 두번째 우리는 ai가 가진 목표를 알 수가 없습니다. 얘가 가진 목표를 보여준 행동을 통해서 추론만 가능합니다. 매일 모이를 주던 손이 다음날 목을 비틀어 버릴지 아닐지 알 수 없다는 말이죠. 즉 ai에 대해서 궁극적인 통제권이 인간에게는 없습니다. 현재까지는 ai가 가진 아젠다가 우리가 원하는 것과 일치하기만을 바랄뿐이죠. 그래서 정렬문제라고 부르는 거죠.
alignment를 정렬이라고 왜 해석하는지 모르겠음. 그런 뜻도 있지만 컴퓨팅분야에서 정렬이라고 하면 sort가 먼저생각나기 때문에 이런식으로 해석해선 안됨 alignment를 조정이라고 해석해야 맞다고 봄. 실제로 alignment는 인공지능이 인간의 의도와 다르게 행동하지 못하도록 학습시키는것인데 왜 이걸 정렬이라고 하는건지. 지들이 용어 쓰면서도 이상하다고 생각안하나
Alignment 는 ai가 학습으로 얻어진 목표가 인간이 원하는 목표와 같은 방향으로 나란하게 일치하게 정렬되는 걸 말하죠.
그건 억지로 갖다붙인것에 불과하죠. 정렬이란 단어는 그럴때 쓰는게 아니에요. 두 객체의 각기 다른 목표를 같은 방향으로 만드는걸 정렬이라고 한다면 부모님과 자식의 목표를 같게 만들면 목표정렬했다고 하나요?
그럼 부모님과 자식의 목표를 같게 만드는 것을 목표 조정이라고 하나요? 이상한 예를 드신 거구요. the alignment problem이 나온 건 AI를 학습을 통해서 원하는 목표를 가지게 하는 과정을 align이라는 표현을 사용해서 나온 거구요. 이것도 마치 학습을 통해서 조금씩 조금씩 방향을 틀어서 목표에 일치시키기 때문에 directional한 느낌 때문에 사용하는 표현이구요.
The alignment problem이 뭔지 알아야 번역이 정확한지 아닌지 알겠죠. 첫번째 현재까지 우리는 ai에게 직접적으로 목표를 정해줄 방법이 없습니다. 다 간접적인 방식으로 ai가 우리가 원하는 행동을 하도록 훈련 학습을 할 뿐이죠. 두번째 우리는 ai가 가진 목표를 알 수가 없습니다. 얘가 가진 목표를 보여준 행동을 통해서 추론만 가능합니다. 매일 모이를 주던 손이 다음날 목을 비틀어 버릴지 아닐지 알 수 없다는 말이죠. 즉 ai에 대해서 궁극적인 통제권이 인간에게는 없습니다. 현재까지는 ai가 가진 아젠다가 우리가 원하는 것과 일치하기만을 바랄뿐이죠. 그래서 정렬문제라고 부르는 거죠.