무료 회원 공개 전체 공개
cover
유료 구독자만 댓글을 쓸 수 있습니다.
채원

저 요즘 언어모델을 주제로 석사논문을 한창 쓰고 있어서 ㅋㅋ 반가운 마음으로 읽었어요! 인공지능이라는 단어를 달고 나오는 많은 글들이 그렇지만, 특히 자연어 처리 관련해서는 더 조심스럽게 접근할 필요가 있는 거 같아요. chatGPT도 예외가 아니고요. 본문에 언어모델이 정보를 흡수해서 '의미를 추론'한다고 하셨는데 이 전제부터 동의하지 않는 학자들이 있거든요. 언어 모델의 능력에 관해 두 극단이 있다고 한다면 하나는 언어 모델이 추론도 하고 심지어는 의식이 있다고 (얼마 전에 LaMDA 사건이 있었죠..!) 주장하는 쪽이고, 다른 한 쪽은 언어 모델은 그저 학습한 것을 반복하는 앵무새일 뿐이고 의미는 인간이 부여한다는 쪽이에요. 그 와중에 chatGPT은 강화학습을 기반으로 만들어진 것이기 때문에 본 것 그대로 반복하는 게 아니라 어떤 답변이 좋고 나쁜지 학습하는 거라 해당 비판이 적용되지 않는다고 비판하는 사람들도 있고요. 워낙 빠르게 발전하는 분야라 선뜻 낙관이나 비관적인 입장을 가지기는 어렵지만, 저 개인적으로는 언어 모델이 받는 기대와 낙관에 비해 문제점들이나 부작용 같은 것들이 상대적으로 주목을 받지 못하고 있다고 생각해요. 단적인 예로 프로그래밍만 해도 세계 최대의 프로그래밍 커뮤니티인 stack overflow에서는 chatGPT로 만들어진 답변을 금지했거든요. 언뜻 봤을 때 그럴듯해보이는데 실제로 잘 아는 사람이 보면 어이없이 틀린 답변들이 워낙 많다는 이유였는데, 저 개인적으로도 비슷한 경험을 했어요. 이것 말고도 언어모델에 문제가 많은데 ㅋㅋㅋㅋ 이미 댓글이 너무나 길어져서 그만하겠습니다,,