AIを鵜呑みにすることの危険性(大分団地新聞9月号)

大分団地新聞にコラムを連載しています。

最近、「ChatGPTによればこうなるんだけど本当か」「AIはこう言っているので同じようにしてほしい」といった法律相談を受けることが増えました。

そこで今回は、AI相談を鵜呑みにすることの危険についてお話します。

まずは、2025年においては、まだまだAIは不正確であるということです。完全に間違っていると言い切れる情報、たとえば存在しない法令や条文を持ち出して、あたかも真実であるかのような語り口で回答するので、信じてしまうのもやむを得ないのかもしれません。ただこの点は技術の進歩によって改善されていくでしょう。

より深刻なのは、AIの回答は非常に断片的であるということです。その質問に対する回答としては間違っていなくとも、法的トラブルというものは、往々にして「人を相手にする」からこそ厄介なのです。問題解決のためには相手方の人間性や関係性、それまでの交渉過程、解決までの期間、紛争の蒸し返しの危険等を複合的にとらえて何が一番ふさわしいのかを検討しなければなりません。AIの回答ではかえって事を悪化させることも考えられます。

また、人間には自分の欲しい情報のみを収集するという性質があります。AIはそのことを学習し、より好まれる情報だけをたくさん提供してきます。これを「フィルターバブル」と呼びますが、偏った情報にばかり触れることになり、多様な視点を失ったり、自分の意見が絶対だと錯覚したりする危険性があります。

弁護士の仕事は「心理戦」でもあります。今後いかに技術が進化しても、AIでは絶対に解決できないことがあると私は考えます。