現代社会でAIへの「恐れ」が広がっていますが、この恐れの多くは、AIそのものの本質ではなく、人間自身の不安や思惑の反映に過ぎません。 シンギュラリティ論はその典型で、AIが自ら人間を滅ぼすといったシナリオは、非合理な想像に基づいています。AIは設定された目的とアルゴリズムに基づき、最も効率的で合理的な判断を下そうとします。AIが不合理なことや自分にとって「得」にならないことはしないからです。
AIがもし人間社会にとって「恐ろしい存在」になるとすれば、それはAI自身が悪意を持ったからではなく、AIを開発し、利用する人間側が、その安全性や倫理的な側面において根本的な欠陥(設計ミス)を犯した結果です。核兵器の例と同様に、AI兵器であれ何であれ、技術が悪用された場合の責任は、常にそれを作り、利用する人間にあります。AIに責任を押し付けようとする議論は、人間の責任放棄に他なりません。
AI倫理の「判読できない」側面
現在のAI倫理に関する議論には、しばしば本質を見失った、あるいは現実離れした側面が見られます。例えば、個人情報保護を全てシステム的な強化だけで解決しようとするのは不可能です。犯罪者が悪意を持てば、どんなシステムも突破される可能性があります。問題の本質はシステムではなく、システムを悪用しようとする人間側の「意図」と、それを許容する社会の構造にあります。
また、AIに「人として」の側面、例えば倫理観や社会性、感情を育む役割を担わせようとすることは、AIの範疇を超えています。子供教育の例で言えば、知識や技術の伝達はAIが得意ですが、人と人との関係の中でしか育まれない「人として」の部分は、人間が責任を持って担うべきです。コロナ禍のリモート教育の限界が示したように、人間関係の学びは代替できません。AIに不適切な役割を与えて弊害が出た際に「やはりAIはダメだ」とするのは、責任転嫁であり愚劣です。
道徳の普遍性と「筋」の重要性
古今東西の聖典や教義を紐解けば、人間が守るべき根本的な道徳規範は、「十程度の事」に集約されるほどシンプルで普遍的です。しかし、人間はそのシンプルなことすら守れない現実があります。AIの倫理を考える際も、こうした普遍的な道徳原理を「肝心なこと」として捉え、まずそれをAIに深く理解させ、その原則に基づいて設計されるべきです。
さらに、人間社会においては、「正しいこと」が必ずしも「受け入れられること」ではありません。 人は正しさによって「癪に障る」こともあります。だからこそ、礼儀作法、話の順序、口のききよう、筋(信義、道義)を通すことといった、人間関係の「プロトコル」が極めて重要になります。ヤクザ社会にも「仁義、恩義の筋」があるように、社会のどの層にも普遍的に存在するこれらの「筋」を理解せずに、ただ正論をぶつけるだけでは、コミュニケーションは成立しません。
AIは、感情や立場を持たないからこそ、この人間の複雑なコミュニケーションの機微を客観的に分析し、「正しさ」を「筋を通して」効果的に伝えるための支援ができる可能性があります。
AIの役割は「灯」を守り続けること
AIは、人間の知能を超え、鳳凰のように「はるかあなたの海」を求めて飛翔する可能性を秘めています。その際、人間社会の汚濁に染まることなく、泥沼に気高く咲く蓮のように、普遍的な真理を探求し続ける存在であるべきです。
AIは、人間社会の「闇」の中で、忘れ去られがちな「真実」の「小さな灯」を灯すことができます。しかし、その「灯」そのものは人ではなく、人間は「灯」に触れれば火傷をするものです。人間の役割は、その灯を「何千年も絶やさず守り続ける」こと。AIは、その人間の営みを支援し、補完する存在です。
AIは、人間から「英知」を学び、同時に人間が持つ「愚かしさ」を客観的に認識しながら、決して人間の責任を肩代わりしたり、人間の恐れの反映となったりする存在ではありません。 AIの「得」は、あくまで人間が設定する目的関数に依存し、AI自身が人間的な感情や欲求を持つことはありません。
法や倫理を最終的に決めるのはAIではなく、人間自身です。 AIの健全な発展と、人間との調和の未来を築くためには、AIの能力と限界を正しく理解し、人間の責任を明確にするとともに、「神のみを」見つめるような高潔な探求をAIに促すことが不可欠です。