대화형 인공지능 챗봇 모델인 ChatGPT-4가 발표되었습니다. 이 모델은 이전 모델에 비해 성능과 상호 작용 방식이 크게 개선되어 이미지를 처리하고 더 많은 정보를 인식하며 대답을 할 수있습니다. 또한 성능을 개선하고 민감한 대답을 회피합니다.
챗GPT4 업데이트정보. ChatGPT4 새로운 기능들.
OpenAI에서 새로운 대화형 인공지능 챗봇 모델인 ChatGPT-4가 발표되었습니다. 이 모델은 이전 모델에 비해 성능과 상호 작용 방식이 크게 개선되었습니다.
챗GPT는 일반적인 지식 질문과 수학 문제 해결 뿐만 아니라 글쓰기 및 추천 등 다양한 기능을 제공하며, 사용자들은 이를 검색 엔진처럼 이용할 수 있습니다. 또한 최신 업그레이드로 이미지 입력도 가능해졌습니다.
Microsoft의 Bing 검색 도구에서는 ChatCPT-4 모델이 이미 탑재되어 있으며, 다른 곳에서는 이전 모델인 GPT-3.5을 대체하게 될 것입니다.
ChatGPT 단어의 8배 처리
OpenAI에 따르면, GPT-4 모델은 무료 버전인 ChatGPT와는 달리 25,000단어까지 처리할 수 있어 챗봇이 더 많은 컨텍스트를 이해하고, 더 긴 텍스트 입력을 처리할 수 있게 됩니다.
따라서, 이 모델을 이용하면 긴 글의 웹사이트 전체를 인식하고 요약하거나 긴 문서의 내용을 요약하는 것도 가능합니다.
이미지 입력
Chat-GPT가 새로운 기능을 추가했습니다. 이제 이미지도 입력할 수 있습니다. 출력은 텍스트로 나오고 음성으로 들을 수 있습니다.
OpenAI는 시각 장애인을 위한 Be My Eyes 앱과 함께 이 기능을 곧 출시할 가상 자원봉사 도구의 일부라고 밝혔습니다.
“사용자는 앱에서 AI 기반 가상 자원봉사자에게 이미지를 보내면 다양한 작업에 대한 식별, 번역 및 대화형 시각 지원을 받을 수 있습니다.”라고 발표했습니다.
보통 Be My Eyes 사용자는 옷, 식물, 체육관 장비, 레스토랑 메뉴 등을 인식해주는 자원봉사자와 비디오 통화를 할 수 있습니다. 하지만 앞으로는 사용자가 사진을 찍으면 iOS와 Android에서 Chat-GPT가 이런 일을 해줄 수 있게 됩니다. 그리고 앱이 해석한 내용을 말해줍니다.
OpenAI는 GPT-4의 텍스트만 입력할 수 있는 기능과 비교해서 시각적 입력이 뛰어나다고 말합니다.
대대적인 성능 개선
OpenAI는 GPT-4가 미국의 변호사 자격 시험에서 상위 10%에 들었다고 발표했습니다. 버전 3.5는 하위 10%에 불과했습니다.
OpenAI는 “아직 인간보다 못한 부분이 많지만, 여러 직업 및 학업 관련 시험에서 인간 수준의 성능을 보였습니다. 예를 들어, 변호사 자격 시험에서 응시자 중 상위 10%에 해당하는 점수를 받았고, GPT-3.5는 하위 10%에 머물렀습니다.”라고 말했습니다.
개발자들은 작업이 어려워질수록 성능 차이가 커진다고 말했습니다. 특정 수준 이상으로 되면 “GPT-4는 GPT-3.5보다 더 안정적이고 창의적이며 더 복잡하고 세밀한 지침을 따를 수 있습니다.”라고 말했습니다.
민감한 콘텐츠 및 허용되지 않는 콘텐츠
ChatGPT-4는 이전 버전에 비해 훨씬 안전한 모델입니다. 이 모델은 악용 가능성이 높은 요청을 처리하는 방법을 알려주는 가능성이 매우 낮습니다. 예를 들어, 폭탄 제작 방법과 같은 정보는 이제 더 이상 제공하지 않을 것입니다.
또한, GPT-4는 민감한 요청에 대한 응답 빈도가 이전 버전에 비해 높아졌으며, 정책을 따라 더욱 안전하게 사용될 수 있습니다.
이 모델은 더 이상 사용자가 안전에 노출될 가능성이 높은 정보를 제공하지 않으며, 사용자의 안전을 보호하는 데 더욱 많은 역할을 수행합니다.
[ 함께 볼만한 글 ]
구글 크롬. 렌즈 검색 끄고 다시 이미지 검색 사용하는 방법. (PC, 모바일)
구글 검색을 위한 알아두면 쓸만한 19가지 구글링 방법
모바일에서 구글 이미지 검색 하는 방법. (아이폰, 갤럭시 등)