タテよこ斜め縦横無尽

田舎の年金暮らしのたわごと

AIの使用制限

 昨日、対話型AI(人工知能)「ChatGPT(チャットGPT)」を開発したアルトマンCEO(最高経営責任者)が来日し、首相官邸岸田文雄首相と面会した。最近、ChatGPTの使用制限について色々意見が乱れ飛んでいるが、主な論点としては、①プライバシーや機密情報の漏洩、②著作権問題、③教育への影響(論文や読書感想文作成への応用)がある。今までは、この新しい技術の優れた面が強調されてきたが、今日はChatGPTが苦手としているところを見てみる。
1.算数の能力は小学生程度

 上は簡単な四則演算であるが、ChatGPTはこの程度の計算なら正解する。足し算と掛け算の計算順序も合っている。

 ところが、3桁×2桁の掛け算となると、突然、別ウインドウを出し、筆算を行ったような素振りを見せながら間違った答えを返す。(筆算過程がめちゃくちゃ)
 そもそも、ChatGPTの大規模言語モデルデータベースの中には、テキストとテキスト間の関係が登録されているだけであり、算術ロジックは登録されてない。ロジックは登録されてないが、簡単な算術計算であれば、算術式とその答えが登録されているので、ChatGPTは正解を返すことができる。
 一方で、算術計算も桁数が2桁、3桁になると、ずばり一致した算術式が登録されていないため、ChatGPTは登録されている式の中で一番近い式を探して来て、回答として登録されているテキストに修正を加えて回答とする。この時行う修正には算術ロジックが含まれず、回答は、数字を文字として扱った時の一番可能性の高い文字に置き換えて(修正して)行われる。従ってChatGPTは、いかにも理路整然と間違ったことを回答する。
 だいたいChatGPTはテキストしか扱えないので、図形問題になるとお手上げである。小学校低学年程度の算数能力しかないと思えば良い。
2.難しい検索条件で検索できない
 
 上は検索条件が3つのAND条件検索であるが、正しく検索されてない。ChatGPTは「3つの条件のAND検索」という風には考えず、データベースの中でこの設問に一番近いテキスト並びを探して来て、それを回答とする。とにかく、多くの検索条件の中で、一つぐらい合致しない条件があっても平気なのである。
3.有りそうもない条件で提案を要求するととんでもない答えを返す

 上は旅行プランの提案を要求した際の回答である。元々ChatGPTには、富山と東京と仙台がどんな位置関係にあるかは登録されてない。そんなシステムに、①富山から東京への一泊二日の旅行、②泊まりは仙台 という通常有り得ない条件で設問を与えると、ChatGPTは登録されているテキスト並びの中で一番近いテキスト並びを何個か繋ぎ合わせて回答を返す。中にはそれで良い回答となることもあるが、上記のようにとんでもない答えになることもある。

 このように見て来ると、ChatGPTは、ロジカルな思考ができず、複雑な計算ができず、数字に弱くて、図形も地図も分からない、国語と英語だけが普通の人間以上にできるいびつなシステムと理解できる。国語と英語ができると言ってもChatGPTは感情を持たないので、創作した詩には心がこもってない。もちろん、感性豊かな表現はできるが、所詮見せかけなのである。