2023年の話題をさらったのは、何と言っても対話型AI、ChatGPTでしょう。当コラムではいち早く、2023年1月にご紹介しました。
[764]ChatGPT 登場!AIは人間の執筆活動を駆逐するか?
(2023年01月23日)
https://www.asuka-g.co.jp/column/2301/012216.html
プログラムとの対話が成り立った面白さを紹介したつもりでしたが、サポートセンターやプログラム開発といった分野で活用され始めました。
また、学校教育のツールとして導入され始めたとき、筆者は危機感を覚えました。
あれから1年。ChatGPTへの評価も落ち着いてきて、万能の回答者でも完全無欠の問題解決者でもなく、それなりに役立つアドバイザー程度に認識されています。
はき出された文言で使える部分があれば「信頼しすぎず注意深く使いましょう」、「偽情報や間違いが混入していないかチェックを怠らない」といった条件付きになりますがこれからも活用の場は広がるかもしれません。
ただ、最近のニュースで気になるレポートが発表されました。
OpenAI、GPT-4が怠け者になってきたという苦情に「修正を検討中」とポスト
米OpenAIは12月7日(現地時間)、ChatGPTでのGPT-4のパフォーマンスが低下している(lazier)というユーザーからのフィードバックがここ数カ月増えていることを認め、「修正を検討中」...。
(ITmedia NEWS 2023年12月10日)
GPT-4とはChatGPTの根幹をなす言語モデルで、一方のChatGPTはチャットボット機能に特化したモデルです。GPT-4の本体は、文章を生成したり質問に答えたり、翻訳をする、資料を検索するなど多岐にわたるタスクをこなす大規模なプログラムで構成されています。
そのGPT-4ですが、今年の後半からしだいに性能が低下している-つまり、「AIが怠け始めた」との指摘がユーザーから寄せられているそうです。しかも、開発元のOpenAIはその事実を認め、プログラムの手直しを考えていると回答しています。
怠け始めた理由は、チャットモデルのトレーニング方法が異なると、その結果の差異が大きく出てしまう、とのこと。
OpenAI 社内でのトレーニング手順を統一していなかったのか、それとも公開した状態で外部からのトレーニングで、チャット内容に不都合が出てきたのか、どちらかはわかりませんが、この問題はいまだ未解決のようです。
ところで、学習しながら性能を上げていくAIプログラムは万能のように見えて、落とし穴もあります。
有名な欠点としては、最初に使う学習データは人間が手作りしたものですが、しだいにネット上のデータを読み込んでいきます。それと同時にチャットAIが吐き出したコンピュータ製データはネット上に溢れ出します。
AIの特性として、人間が作った不揃いなデータよりも、整ったコンピュータ製データをより積極的に学習してしまいます。
AIは自身が作ったデータを優先的に使い続け、回答や論文、画像、動画の生成を繰り返します。その結果、人間の目には理解しがたいフェイクデータが量産されるというものです。
AIのこの繰り返し生成の弱点としてあげられるのが、繰り返し命令を受けたときの破綻があります。
ChatGPTで同じ単語を無限リピートさせるとトレーニングデータを吐き出すという論文を受け、該当プロンプトが無効に
米OpenAIの生成AIチャット「ChatGPT」に単語を永遠に繰り返すよう要求すると、トレーニングに使ったソースデータを吐き出すという論文が11月28日に公開された...。
(ITmedia NEWS 2023年12月5日)
トレーニングデータには電話番号、メールアドレスなどの本物の企業情報まで含まれていたそうですから、これを放置しておくと大問題になりそうです。
今のところは、ChatGPTは繰り返し命令には拒否で返すしか解決策がないようです。
ことし1年間を楽しませてくれた対話型AIのChatGPTですが、今年の締めくくりに「怠け癖」や「暴露癖」まで見つかってしまいました。
対話型AIには、来年のいっそうの活躍を期待しています。(水田享介)