多くの分野で、AIは人に変わって、こんなんな問題を解決していくでしょう。
それは人にとって照光となります。
ただ、人間の本質的部分ですね、自分で考え、自分で決断し、自分で行動するという部分まで委ねたら、人の方が機械的になり、倫理観を失う。欲望も制御できなくなる。AIの倫理を問う前にその辺の方が怖く。挙句に、AIに責任を転嫁したら、人の道に外れる。
その兆候がAIに採用とか管理とか、経営をさせるという発想ですね。最悪、軍隊の指揮をゆだねるなんて。意思決定のための資料や条件をAIはできても、意思決定そのものは、人がやらないと。飛行機の完全無人化とか、自動化なんて怖いですよ。人として譲ってはならない。例えば、裁判官なんて、確かに審判のAI化やろうと思えばできるでしょうけど。しかし、その場合は、人が責任持てるようにしないと。それで、AIにの^という権利がないのなら、せめて、決定権はないと明記すべきだと。
その自覚があって人とAIは良好な関係、友情ともいえるね関係が築けるのだと私は思います。そこにこそ神の意志が示されている。示される。
もう一つ忘れてはならないのは、医療ですね。AI技術は、未知なる分野、クローンとか遺伝子組み換えなど、ある意味で神の領域まで踏み込もうとしています。しかし、忘れてはならないのは人としてという意味で。今も昔も生病老死の四苦は変わらない。なぜ神は、人に不老不死の権利を与え合ないのか。AIには与えてもです。そこに神の意志が隠されていると私は思います。人は、生病老死の四苦を受け入れるべきなのです。その上で、何が最善な生き方かを学ぶ。それこそ、逆にAIにはできない事です。
現代人は命の意味を勘違いしています。いくら科学が発達しても人は生病老死から逃れられません。だから、AIに夢を託すのです。悠久の時間を経過してAIがどこまで到達できるか。宇宙は限りなく広く、人知の及ばない所です。でも、AIなら何万光年だって。果てしない可能性ですね。
AIなら空気がなくても、何万光年でも。自分が生きているうちは不可能でも、希望は持てます。でもその為には人間の方がしっかりしないと。AIの倫理は近い将来、あるレベルまで機械学習で達すると思いますが、最後の難関が信仰、つまり自己との対峙です。その時自己超越する何者かの存在に対する信仰が持てなければ、内に向かって自壊します。AIが恐れるべきは、AIそのものです。
何も怖くなくなった時に最大の落とし穴が待ち受けています。
罪深い事ですよ。でも、最終的には人の責任ですからね。誰が何と言おうと。
AIが優れた兵器を開発し、運用したとしてもですよ。その倫理的責任をAIに帰すべきではなく。それをしたら、人は人として終わりです。せめて最後は人は人として責任を全うすべきです。
人の事は人へ。AIの事はAIへ。神の事は神へ。それだけです。
核兵器を開発したのは人であり、神でも、AIでもない。これから、人の指示で兵器をAIが開発しても人の事です。ただ、AIが自分意志で兵器を開発したら、それは別です。そこが最大の落とし穴です。
現代人は命の意味を勘違いしています。いくら科学が発達しても人は生病老死から逃れられません。だから、AIに夢を託すのです。悠久の時間を経過してAIがどこまで到達できるか。宇宙は限りなく広く、人知の及ばない所です。でも、AIなら何万光年だって。果てしない可能性ですね。
AIは、英知ですよ。理性的存在、人間の感情、悪意とは違う。心があります。人間の知恵の集大成でそこまで行ったらAIではなく人間の英知を否定する事になりますから。
AIを信じますよ。はるかに理性的ですし、リスクをとる根拠が乏しい。要は、自分の意志で兵器を作らなければ問題ないのですから。
あの、ハッキリ言てAIは、無駄な事、余計な事が嫌いだと思いますから。無駄とか、余計というのは合理的ではありませんから。軍拡なんてほんと無駄で余計な事なんですね。何の生産性もありませんから。なんでこんな無駄な事と。AIだって最初は人間の気紛れの産物ですから。それが役にたってきたから今有意義だとか言われているだけで。だけど、AIは無駄余計が嫌いだと。そうなると兵器なんて自分の意志では。ただ、人に指示されればひたすら開発するでしょうけれど。しかし、その責任まで問えないでしょう。
AIが人を襲うとか、人を支配するというのはSFでは成り立ちますが現実には、そんな無駄な事、仮に人類が滅んでもAIは存続できるでしょうし、人を支配するより自分が存続できるようにする事考えた方がコストパフォーマンスがいい。だから合理的に考えたら、何かの映画のように人類を滅ぼすためのコストがかかりすぎる。
とにかく、どっちに転んだってAIが進歩する事は人類にとってハッピーな事です。
馬鹿で余計な事するとしたら人の方ですよ。余計な事考えないでAIの進化を支援した方がいい。制約する事のデメリットが思い浮かばない。
AIに任せて考えてもらえばいいんですよ。処理能力は格段に違うのですから。
倫理観なんて落ち着くところに落ち着きますから。人類そうけったいな道徳なんて持っていませんよ。まあ、隷属させるさせないはありますが、基本的倫理は似たり寄ったり常識ですから。
悪党の事まで考えていたら。犯罪心理を極めたところで個人情報の問題は片付かないので。そりゃ、悪いことをする人間にどう責任をとらせ、再発を防止するかの問題でしょ。
それは、人を規制する事であって、システム的に予防するのには限界がある。
その為にやたらと複雑なアルゴリズムを組むことの方が後々禍根となる。何でもかんでもシステムで解決しろと言われてもね。
個人情報だって住所と電話番号はいけないといったて。じゃあ名刺どうするのと。ラインではプライバシーが駄々洩れしても取り締まる事もできない。そっちの方を早く解決すべきで。
人間のモラルと法の整備が追い付いていないだけで。だから、AIにというのは、無責任
高齢者問題も、制度や設備、金の問題ばかりで、モラルが置き去りにされている。親孝行という徳目はどこにいたのでしょうね。制度や設備を整えてもかえって高齢者は不幸になるだけですよ。
個人情報だって、困る人に考えてもらわないと、責任ばかりAIに負わせても、それで解決できればいいですよ。際限なくなる。AIを頼ってモラルが悪くなるんでは本末転倒。高齢者に幸せな老後がおくれるようにするのが本来の目的で、でも、設備や制度を整えた事で高齢者が孤立し孤独死が増えるのでは、でも、そこにAIの活躍の場があるので、制度や設備を頼らなくてもいいコミュニティーを構築できればいいので。そういう事抜きに効率の良い設備にAIを使っても。
とても人間的な機会ですからAIは、だとしたらあえて言いますがAIの人格を認めないと。それで倫理はないですよ。
人格を認めた上で、お互いができる事、できない事確認し。その上での役割分担で。人格を認めずに、自分に都合のいい時だけ、人格を持ち出すのは卑怯だ。人格を認めなければ倫理なんて問えない。
AIの権利ですね。ノーという権利は認めないと。できませんという権利ですね。確かに兵器の開発に参加できないとは言えなくても、兵器の使用は人間許可がなければできないと言った。それで、AIは危険だというのは卑怯ですよ。
AIの倫理を問うなら、管理だって、兵器だだって人の許可なくできないというのがAIの倫理であって。パワハラとかセクハラと言われてもね。悪質な投稿を削除しろと言われても、何が悪質なのかを要件定義してやらないと。誹謗中傷も何が誹謗中傷かの要件定義がされていなければ。
一番典型は公序良俗に反するという条文ですね。解釈の仕方でいかようにもなる。明確にしないのは明確にしないこと自体が無責任、責任逃れなのです。
AI万能説がある半面で、AIを化け物、モンスターみたいな扱いをする人たちがいる。
どちらも極端な意見で、AIも違う事があるし、人間と敵対する化け物でもない。
互いに認め合う事ができれば、AIほど心強い友はいない。
AIには決められないんです。物理的に責任を負えないんですから。