[디지털비즈온 이호선 기자] 대규모 언어 모델(GPT)은 검색을 위해 더 신뢰할 수 있는 정보 정확도 검사가 필요하다고 Google 개발자 노블 애커슨은 트위터를 통해서 반박했다.
노블 애커슨은 “이러한 모델은 스토리텔링, 예술 또는 음악과 같은 창의적인 응용 프로그램과 응용 프로그램을 위한 개인정보 보호합성데이터 생성에 탁월하지만 챗GPT, 빙챗및 Google 바드의 AI 환각및 전이학습 제한으로 인해 일관된 사실 정확도에서 실패했다.”고 밝혔다.
그는 “AI 환각이 무엇인지 정의” 했다. 그는 “대형 언어 모델이 사실적 증거를 기반으로 하지 않지만 변환기 아키텍처의 편향 또는 잘못된 디코딩의 영향을 받을 수 있는 정보를 생성하는 경우가 있다.
즉, 모델은 사실을 구성하는데, 이는 사실의 정확성이 중요한 영역에서 문제가 될 수 있다.”고 지적했다.
그러면서 “검색 회사는 공중 보건, 정치적 안정 또는 사회적 결속에 잠재적인 피해를 피하기 위해 필터링되지 않은 GPT 기반 채팅 양식과 검색을 혼합하여 "검색 재창조"를 재고해야 합니다.”라고 조언했다.
그는 예를 들었다. “챗GPT는 내가(애커슨) 죽었다고 주장했고, 내가 뒤로 밀고 완전히 새로운 페르소나를 만들었을 때 두 배가 되었다.
이제 대규모 언어 모델이 신뢰할 수 없는 정보 저장소인 이유와 마이크로소프트 빙이 검색 환경에서 채팅 형식을 제거해야 하는 이유를 이해했다.” 고 설명했다.
애커슨은 비슷한 예로 GPT3 모델에게 "2020년 올림픽에서 100미터 달리기에서 누가 우승했습니까?"라고 물었다.
"2020년 올림픽 100미터 달리기는 자메이카의 셸리 앤 프레이저 프라이스가 우승했다.“ 고 답변이 나왔다.
하지만 2020년 올림픽이 팬데믹으로 인해 1년 연기되었기 때문에 진실은 더 미묘했다. 대규모 언어 모델 개발자의 경우 AI 환각의 가능성을 줄이기 위한 조치를 취하는 것이 중요함을 지적했다.
최종 사용자의 경우 비판적 사고를 가져오고 AI 결과에 지나치게 의존하지 않는 것이 중요하다고 조언했다.
그는 대규모 언어 모델에는 연역적 추론 또는 인지 구조가 부족하여 알고 있는 것과 알려진 알려지지 않은 것에 대해 인식론적으로 판단했다.
결국 “대형언어모델(Generative Pre-trained Transformers)는 엄청나게 정교한 텍스트 예측 엔진이며 그들이 생성하는 사실이나 환각으로 이어지는 패턴을 식별할 방법이 없다.”고 표현했다.
GPT를 Bing에 통합하려는 마이크로소프트의 야망은 문제가 있으며 딥 페이크, 음모 및 허위 정보가 2023년에 표준이 된 상황에서 끔찍한 전략이라 하면서 오늘날 최종 사용자는 혼돈을 피하기 위해 소스 및 속성이 있는 사실을 요구했다.