이 글에 비판적인 학자의 글도 같이 읽어보셨으면 좋겠어요. 여태 언어모델을 더 안전하게 만들 수많은 방법들이 제시되어 왔는데 대부분의 기업들은 그걸 후차적인 문제로 여기고 신경쓰지 않았을 뿐이에요. 챗지피티가 예상 외의 성공을 거두니 마치 이런 일이 일어날 줄 몰랐던 것 처럼 무책임하게 '우리가 감당하지 못할 것을 만들어버렸으니 잠시 개발을 멈추자'고 하는 것은 기만이라고 생각해요. 아주 빠르지만 위험한 자동차라든가, 맛있지만 건강에 치명적인 음식이 시장에 내놓는 것은 당연히 용납되지 않는데, 새로운 기술은 무책임하게 내놓아도 관대하게 받아들여지는 것도 실리콘밸리의 기술만능주의의 단면이라고 생각하고요. 모라토리엄을 외치기 전에 여태까지 언어 모델을 향해 나왔던 수많은 비판들 - 탄소 발생 문제라든가 학습 데이터의 저작권, 데이터 주체들의 프라이버시, 언어 모델이 갖는 각종 편향, 데이터 스웻샵 등등 - 을 무시하고 학습 데이터 사이즈를 늘리고 그럴듯한 보여주기식 성능을 높이는 데에만 몰두했던 기업들을 비판하는 일이 먼저 이루어져야죠.
이 글에 비판적인 학자의 글도 같이 읽어보셨으면 좋겠어요. 여태 언어모델을 더 안전하게 만들 수많은 방법들이 제시되어 왔는데 대부분의 기업들은 그걸 후차적인 문제로 여기고 신경쓰지 않았을 뿐이에요. 챗지피티가 예상 외의 성공을 거두니 마치 이런 일이 일어날 줄 몰랐던 것 처럼 무책임하게 '우리가 감당하지 못할 것을 만들어버렸으니 잠시 개발을 멈추자'고 하는 것은 기만이라고 생각해요. 아주 빠르지만 위험한 자동차라든가, 맛있지만 건강에 치명적인 음식이 시장에 내놓는 것은 당연히 용납되지 않는데, 새로운 기술은 무책임하게 내놓아도 관대하게 받아들여지는 것도 실리콘밸리의 기술만능주의의 단면이라고 생각하고요. 모라토리엄을 외치기 전에 여태까지 언어 모델을 향해 나왔던 수많은 비판들 - 탄소 발생 문제라든가 학습 데이터의 저작권, 데이터 주체들의 프라이버시, 언어 모델이 갖는 각종 편향, 데이터 스웻샵 등등 - 을 무시하고 학습 데이터 사이즈를 늘리고 그럴듯한 보여주기식 성능을 높이는 데에만 몰두했던 기업들을 비판하는 일이 먼저 이루어져야죠.
비판적인 시각을 유지하면서도 논점의 포커스를 좁히는 접근이 참 좋네요! Slow Down 글을 완성한 후에 채원님의 말씀과 에밀리 벤더의 글로 보충/반론의 글을 소개해야 할 것 같아요.
좋은 정보 감사드려요!
https://medium.com/@emilymenonbender/policy-makers-please-dont-fall-for-the-distractions-of-aihype-e03fa80ddbf1 에밀리 벤더의 글을 같이 살펴보시길 추천합니다!