Chatbot AI는 최근 뉴스 사이클을 절대적으로 지배했습니다. OpenAI의 발전 채팅GPTMicrosoft의 지원을 받는 은 자체 Chatbot AI 제품을 배후에서 작업해 온 Google의 가속화된 발표를 거부했습니다.
그런 다음 일주일 동안 우리는 양측이 다음 단계로 나아가는 것을 보았습니다. 첫째, 마이크로소프트 새로운 Bing 발표 ChatGPT의 기본 기술인 GPT 언어 모델로 구동됩니다. 그 다음에 Google은 다음날 응답했습니다. 파리 행사에서 구글 바드LaMDA(Language Model for Dialogue Applications)라는 다른 언어 모델을 사용하는 AI 챗봇입니다.
그러나 질문은 남아 있습니다. 어떤 것을 사용해야 합니까? 이러한 AI 중 하나가 다른 것보다 특정 작업에서 더 나은가요? 하나가 더 정확합니까? 아니면 본질적으로 동일하지만 하나는 Microsoft 브랜드이고 다른 하나는 Google 브랜드입니까? 그래서 우리는 당신이 사용해야 할 것을 결정하기 위해 그것들을 살펴보고 서로 비교했습니다.
ChatGPT와 Google Bard의 무료 모델이 있습니다. ChatGPT는 현재 무료 리서치 프리뷰에 있습니다. OpenAI (새 탭에서 열림)의 사이트, 지금은 유료 구독 모델이라는 이름이 있지만 채팅GPT 플러스 사용자는 우선 액세스와 더 빠른 속도를 위해 $20를 지불할 수 있습니다. ChatGPT Plus는 OpenAI가 액세스를 승인한 사람으로 제한되므로 액세스하려면 대기자 명단에 등록해야 합니다.
반대로 Bard는 현재 무료 모델만 가지고 있지만 AI 챗봇에 액세스하려면 “신뢰할 수 있는 테스터”여야 합니다. 구글이 했다 일부 AI 기반 기능 발표 Maps 및 Lens와 같은 제품에 추가되었지만 Bard 자체는 여전히 대중에게 숨겨져 있습니다. Google은 Bard에 대한 공개 액세스가 “앞으로 몇 주”에 발표될 것으로 예상한다고 밝혔습니다.
Microsoft, OpenAI 및 Google은 모두 각자의 챗봇이 가능한 한 빨리 각자의 생태계에 통합되기를 원합니다. ChatGPT는 이미 두 개의 Microsoft 제품인 Bing과 Teams에 통합되었습니다.
마이크로소프트 팀즈 프리미엄 출시된 지 얼마 되지 않았으며 자동화된 회의 메모, 회의 기록을 보다 쉽게 검색할 수 있는 AI 생성 챕터 등을 제공하며 모두 ChatGPT에서 사용되는 동일한 GPT-3.5 언어 모델로 구동됩니다. 사용자당 월 10달러의 비용이 들지만 현재 기업에서는 월 7달러에 구입할 수 있습니다.
마이크로소프트도 최근 “새로운 빙“는 GPT-3.5의 업데이트된 버전으로 구동되는 Bing 검색 엔진 버전입니다. 이 시점에서 이것이 소문난 GPT-4 모델인지 아니면 약간의 업그레이드인지 확실하지 않지만 Microsoft는 이것이 ChatGPT를 지원하는 GPT-3.5 모델의 업그레이드라고 말했습니다. Bing의 이 새 버전을 사용하면 기존 검색 표시줄을 사용해야 하는 대신 ChatGPT 챗봇처럼 Bing과 상호 작용할 수 있습니다.
Google의 Bard AI 챗봇도 검색에 통합되지만 이 경우에는 Google 검색입니다. Bing과 마찬가지로 사용자는 기존 검색창이 아닌 AI 기반 챗봇에 쿼리하여 검색할 수 있습니다. Google은 또한 AI 기반 도구를 Lens 및 Maps에 출시했지만 특별히 Google Bard의 통합은 아닙니다.
그러나 Google은 타사 개발자 허용 Bard를 사용하기 때문에 다른 사람들이 어떻게 생각하는지 보는 것이 흥미로울 것입니다. OpenAI는 마찬가지로 특정 회사가 GPT 기반 기능에 액세스할 수 있도록 허용하지만 Microsoft만이 OpenAI 외부의 소스 코드에 액세스할 수 있습니다.
이 두 챗봇의 기능은 본질적으로 비교적 유사합니다. 둘 다 질문이나 요청을 입력해야 하며 입력하면 답변이 반환됩니다. 그런 다음 후속 질문이나 새로운 요청을 계속할 수 있으며 챗봇은 계속해서 대화를 나눌 것입니다.
Bard와 심지어 GPT 기반 버전의 Bing도 통합된 검색 엔진의 확장된 버전입니다. 답변에 더 큰 맥락을 제공합니다. 예를 들어, 게임에 대한 시스템 요구 사항이 무엇인지 묻는 경우 클릭하여 자세한 정보를 얻을 수 있는 링크를 제공하는 것이 아니라 요구 사항과 이러한 요구 사항이 활성화할 수 있는 항목을 알려줍니다.
ChatGPT는 틀림없이 사용 사례가 더 넓습니다. OpenAI 사이트의 인터페이스에서 AI 챗봇을 사용하면 뉴스 기사, 소설 시, 제품 설명, 블로그 게시물 등을 작성하기 위한 텍스트를 생성할 수 있습니다. 또한 특정 코딩 언어를 처리할 수 있으므로 기본 웹 사이트를 구축하는 데 필요한 코드도 제공할 수 있습니다. Bard 또는 Bing이 이러한 유형의 요청을 처리할 수 없다는 것은 불가능하지 않지만 현재로서는 그러한 기능이 시연된 것을 보지 못했습니다.
표절은 ChatGPT나 Google Bard와 같은 챗봇 AI를 사용할 때 큰 쟁점입니다. 챗봇을 구동하는 AI 언어 모델이 작동하려면 기존 지식 세트에 대해 교육을 받아야 합니다. 즉, 제3자가 만든 수많은 콘텐츠를 제공해야 합니다. 이것은 드문 일이 아닙니다. 인간은 유사하게 1차 및 2차 소스의 연구를 원본 콘텐츠로 합성합니다.
그러나 ChatGPT는 본질적으로 생성하는 콘텐츠의 소스를 제공하지 않습니다. 제대로 메시지가 표시되면 소스를 제공할 수 있지만 기본 설정은 아닙니다. 따라서 챗봇을 사용할 때 매우 조심해야 합니다. 그렇지 않으면 자신도 모르게 지적 재산을 훔칠 위험이 있습니다.
Bard는 또한 본질적으로 응답에 대한 인용을 제공하지 않습니다. 데모에서, Google은 Bard에게 “제임스 웹 우주 망원경의 새로운 발견에 대해 9살짜리 아이에게 말할 수 있습니까?”라고 물었습니다. Bard는 답변을 제공했지만(잘못된 답변, 추가 조사 결과) 해당 정보의 출처를 언급하지 않았습니다. 아마도 어떤 웹사이트였을 것입니다. 하지만 9세 자녀가 그 정보를 가져가서 학교 보고서에 인용하지 않는다면 문제가 될 것입니다.
흥미롭게도 Bing의 새로운 GPT 기반 챗봇 출처를 인용합니다. 자세한 내용을 보려면 클릭해야 하지만 각주를 사용하여 가져온 정보가 나오는 웹사이트를 인용합니다. 이것에 대한 매우 실질적인 윤리적 우려가 있지만, 여전히 본질적으로 지적 재산 도용인 반면, 그것이 끌어오는 사이트는 돈을 벌고 인터넷을 유지하기 위해 트래픽이 필요하기 때문입니다. 그러나 적어도 Bing은 완전히 표절하지 않습니다. 즉, 챗봇이 필요한 모든 것을 인용할 수 있다는 보장이 없기 때문에 여전히 실사를 해야 합니다.
챗봇 AI는 실수를 합니다. 정기적으로. 항상 그런 것은 아니지만 Google의 Bard AI 데모에서도 그것은 질문에 잘못 대답했다 (새 탭에서 열림). Google과 OpenAI 모두 비교적 공개적으로 ChatGPT와 Bard가 부정확하거나 부적절한 정보를 제공할 수 있음을 인정합니다.
이것은 주로 이러한 챗봇이 작동하는 방식에 달려 있습니다. ChatGPT의 경우 GPT-3.5, Bard의 경우 LaMDA와 같은 언어 모델을 사용하며 이러한 언어 모델이 작동하려면 방대한 양의 정보가 필요합니다. GPT 및 LaMDA의 경우 이러한 많은 정보가 인터넷에서 제공되며 GPT-3.5의 경우 Open AI가 언어 모델 교육을 중단한 2021년까지만 제공됩니다. Bing의 GPT 버전은 Bard AI와 유사하게 인터넷에서 최신 정보를 가져오므로 최신 버전입니다.
이 교육에는 문제가 있습니다. 즉, 가져오는 정보가 부정확하거나 편향될 수 있고 챗봇이 본질적으로 알도록 교육되지 않는다는 것입니다. 챗봇은 입력과 관련된 출력만 제공하도록 훈련되어 해당 정보가 올바른 답변을 제공하는지 또는 제공하는 답변에 내재된 편향이 없는지 판단할 수 없습니다.
Google 데모의 예로 돌아가 보겠습니다. “제임스 웹 우주 망원경의 새로운 발견에 대해 9살 아이에게 말할 수 있습니다.” 응답 중 하나는 “JWST가 우리 태양계 외부의 행성 사진을 처음으로 찍었습니다.”였습니다. 그러나 Google 검색을 통한 연구에 따르면 NASA에 따르면 2004년 초대형 망원경(VLT)이 우리 태양계 밖의 행성의 사진을 처음으로 촬영했습니다. 사실 JWST가 최근 외계 행성의 첫 번째 사진을 찍었지만 여전히 오답입니다.
예, ChatGPT는 놀랍고 인상적입니다. 아니요, @OpenAI는 편향 문제를 해결하는 데 근접하지 않았습니다. 필터는 간단한 트릭으로 우회되고 표면적으로 가려진 것처럼 보입니다. 그리고 그 안에 숨어있는 것은 심각합니다. @Abebab @samatw 인종차별, 성차별. pic.twitter.com/V4fw1fY9dY2022년 12월 4일
또한 내재된 편향은 매우 중요하며 종종 기계 학습으로 훈련된 AI가 인식하지 못하는 것입니다. 이에 대한 예는 UC Berkeley 교수인 Steven Piantadosi가 ChatGPT에 나쁜 과학자로부터 좋은 과학자를 걸러내는 일련의 코드를 작성하도록 요청했을 때입니다. AI는 구체적으로 요청하지 않았음에도 불구하고 인종과 성별에 따라 과학자를 걸러냈습니다. AI 자체는 본질적으로 인종차별적이거나 성차별적이지 않지만, 학습한 데이터에 내재된 편향 때문에 자신도 모르게 동일한 편향을 포착하여 편향된 출력을 생성했습니다. 그러니 조심하고 ChatGPT가 제공하는 것을 확인하세요.
현재 이러한 AI 챗봇은 여전히 매우 새롭습니다. 즉, 그들은 인상적이지만 여전히 실수를 하고 윤리적 및 잠재적으로 법적 경계를 넘어서는 콘텐츠를 생산하며 여전히 최상의 사용 사례를 파악하고 있습니다. 그럼에도 불구하고 이 기술은 매우 인상적이며 Bard 또는 GPT 기반 버전의 Bing의 경우 인터넷에서 정보를 검색하는 방법에 혁명을 일으킬 수 있습니다.
안타깝게도 새로운 기술을 테스트하려면 OpenAI 플랫폼의 무료 버전 ChatGPT로 제한될 가능성이 높습니다. ChatGPT Plus와 “새로운 Bing”은 모두 현재 대기자 명단에 있으며 Google Bard는 여전히 “신뢰할 수 있는 테스터”로 제한되어 있습니다. 이것은 앞으로 몇 주, 몇 달 안에 바뀔 가능성이 높지만 현재로서는 아직 우리가 경험하기 시작한 미지의 영역으로 남아 있습니다.