提供開始の時点では、GPT-4はOpenAIの月額20ドル(約2660円)のサブスクサービス「ChatGPT Plus」(チャットジーピーティー・プラス)に登録しているユーザーだけが利用できる。ChatGPTの無料ユーザーは、引き続き旧モデルのGPT-3.5で生成された応答を目にすることになる。
OpenAIは、GPT-4を前モデルと比較して「信頼性が高く、創造的ではるかにニュアンスの深い指示を扱うことができる」と説明している。
GPT-4がGPT-3.5から飛躍したものの1つに、画像の解析能力がある。OpenAIの示した例では、言語モデルに料理の材料の写真を見せ、それで何が作れるかを尋ね、複数の選択肢が回答として示されていた。
大量の文章を文脈に沿って要約することに関しても、GPT-4は前作から一歩進んでおり、人が書いた要約の不正確さを指摘することもできる。
GPT-4は、SAT(米国の大学適性試験)のリーディング、ライティングテストで93パーセンタイル、統一司法試験で99パーセンタイルと、前モデルに比べほとんどの標準試験を楽々とクリアしている。ちなみにGPT-3.5の成績はそれぞれ87パーセンタイル、10パーセンタイルだった。
完璧ではないものの、GPT-4の推論力はパズルを解析し、より正確な回答をする能力にも優れている。
GPT-4の最大の特徴である画像入力の分析・応答機能は、悪用される懸念があるため、提供開始当初は利用できない。ワシントン・ポストによれば、この機能はOpenAIがこの機能に関連する潜在的なリスクを理解しようとしているため、現在は抑制されているという。OpenAIは、顔認識や私人の監視に利用できないような「安全策」に取り組んでいるとしている。
GPT-4も、ほぼすべての言語学習モデルで派生する「妄想問題」を免れることはできない。これは、言語モデルが前触れなしに完全に誤った情報を生成する状況で、場合によっては正確なテキストの途中で発生することがある。OpenAIはこれを認め、GPT-4は「まだ完全に信頼できるものではない」と指摘し「影響の大きな文脈」で言語モデルを使用する際には、人間によるレビューなどの予防策を講じる必要があると警告している。