1월에 인공 지능의 강국인 OpenAI는 자체 ChatGPT와 같은 생성 AI 도구를 사용하여 콘텐츠가 생성되었는지 여부를 감지하여 세상을 구할 수 있거나 적어도 교수와 교사의 정신을 보존할 수 있는 도구를 발표했습니다.
반년 후, 그 도구는 죽었습니다. 설계된 대로 할 수 없었기 때문입니다.
ChatGPT 창시자 OpenAI는 지난 주 "정확도가 낮기 때문에" AI 탐지 도구인 AI Classifier를 조용히 분리했다고 밝혔습니다. 해당 설명은 새로운 발표에는 없었지만 도구를 처음 발표한 블로그 게시물 에 추가된 메모에 추가되었습니다. OpenAI의 분류기에 대한 링크는 더 이상 사용할 수 없습니다.
OpenAI는 "우리는 피드백을 통합하기 위해 노력하고 있으며 현재 텍스트에 대한 보다 효과적인 출처 기술을 연구하고 있으며 사용자가 오디오 또는 시각적 콘텐츠가 AI로 생성되었는지 이해할 수 있는 메커니즘을 개발하고 배포하기로 약속했습니다."라고 말했습니다.
점점 더 정교해지는 AI를 사용할 수 있는 새로운 도구가 거의 매일 온라인에 등장하며 AI 감지기의 가내 산업을 창출했습니다.
OpenAI는 인간과 AI가 쓴 텍스트를 구별할 수 있다고 주장하는 AI 분류기의 출시를 발표했습니다. 그러나 그럼에도 불구하고 OpenAI는 분류자를 "완전히 신뢰할 수 없음"이라고 불렀고, 영어 텍스트의 "챌린지 세트"에 대한 평가에서 AI가 작성한 텍스트의 26%를 "AI가 작성할 가능성이 있는" 것으로 올바르게 식별했으며 사람이 작성한 텍스트를 AI가 작성한 것으로 잘못 표시한 경우는 9%라고 덧붙였습니다.
OpenAI는 AI 분류기의 한계에는 1,000자 미만의 텍스트에 대한 신뢰할 수 없는 점, 인간이 쓴 텍스트를 AI가 작성한 것으로 잘못 표시하는 것, 훈련 데이터 외부에서 제대로 작동하지 않는 신경망 기반 분류기가 포함된다고 말했습니다.
AI를 정확하게 감지하는 데 매우 관심이 있는 분야 중 하나는 교육입니다. 11월에 ChatGPT가 출시된 이후 교육자들은 챗봇을 사용하여 에세이를 작성하는 학생들에게 경종을 울렸습니다 .
OpenAI는 "우리는 AI로 작성된 텍스트를 식별하는 것이 교육자들 사이에서 중요한 논의 포인트였으며 교실에서 AI 생성 텍스트 분류기의 한계와 영향을 인식하는 것도 마찬가지로 중요하다는 것을 알고 있습니다.