<解説>
社内業務での活用の模索が進む
ChatGPTなどの生成型AIの性能が各種試験に合格するレベルにまで達するなど劇的に向上したことから、注目を集めています。一方で「生成型AIは人間の仕事を奪う」という危機感も生じており、実際にハリウッドでは収入低下に悩む脚本家がこのままではAIに仕事を奪われてさらに収入が低下するとしてストライキを実行するなどの騒ぎに発展しています。また、生成型AIがプログラムのコードを瞬時に生成する様子を見ると、プログラミングは生成型AIに任せて、生成された結果(コード)の検証や全体の設計だけ人間が行うようになる時期もそう遠くないように感じます。生成型AIの機能向上に合わせるようにして、最近では「AIに仕事を奪われる職業」についての記事や考察を見かける機会も増えました。
最近では画像生成AIが出力したものと思われる米国国防総省(ペンタゴン)の近くで爆破騒ぎの偽画像がSNSで拡散し、米国の株式相場が一時低下する騒ぎも起きました。また、音声生成AIが選挙のネガティブキャンペーンやオレオレ詐欺などに使われる時代になりました。最新技術を用いて「もっともらしい画像を見せる」「もっともらしいことを言う」AI(いわゆるディープフェイク)に騙されたり、振り回されたりする時代がすでに始まっています。
もっとも、AIの進展が産業構造の変革を迫ったり、AIに生成させた偽情報を発信する人間に振り回されたりするのは、まだ人間社会内での問題に留まるので大した問題とは言えません。一時的な混乱はあっても人間社会が適応していくからです。実際に科学技術の発展に伴いこれまでにも似たような状況はありましたが、人間はそれを何とか使いこなしてきました。しかし、AIがシンギュラリティを獲得してしまうと話は別です。AIが暴走したときに誰がそれを止めることができるのかという問題に直面するからです。すなわち「人間社会内での問題」から「人間対AIの生存競争」という異質の問題に直面することになります。多くのSF小説や映画で取り上げられてきたテーマが現実のものになりかねません。それに危機感を抱いた一部の科学者等が、ルールが策定されるまではAIの開発を一時的に凍結すべきであると声を上げ、EUなど規制強化策に乗り出すところも出てきました。
シンギュラリティ : 技術的特異点。AIの場合、AIが人間の知能を超えるレベルに達することを言う。
だからと言って、上場会社においてAIの活用を模索すること自体を止める必要はなく、むしろ止めてはいけません。技術革新は今この瞬間も続いており、乗り遅れた上場会社は先行者利益を諦めざるを得なくなるからです。AIの社外利用(AIを組み込んだサービスの開発とマネタイズ)はまだまだハードルが高いですが、社内利用であればハードルが低いですし、日本企業の課題であった生産性の低さをAIの活用により解決できるかもしれません。
社内ルールの制定が不可欠
生成型AIの社内利用として、商品企画におけるアイデア出し、営業資料のキャッチコピーのブレインストーミング、新規営業先から質問される事項の想定とそれに対する模範解答の準備、マニュアルが不足している業務に関してマニュアル化を進める際の業務手続の網羅性の確認、議事録の要約、謝罪メールの作成、投資家向けIR資料の文章生成、株主総会における想定問答集の準備、リスク管理委員会における想定リスクの網羅性の確認、社内利用のプログラムのコード書き、英文メールのたたき台作成などが考えられます。生成型AIの社内利用を進める中で、プロンプト(対話型AIにおける質問)が洗練されていき、業務時間が短縮していくはずです。社外利用へのアイデアもわいてくることでしょう。
ただ、生成型AIの利用にあたり、個人情報や機密情報の漏洩、著作権の侵害といったリスクがあることには注意をしなければなりません。そのためにも有料サービスへの加入と利用にあたってのルールの整備(プロンプトに入れてはいけない情報を包括的に指定しておく)、無料サービス利用時の危険性についての社内研修の実施などの施策に早急に取り組むべきです。
さて、以上の解説をご覧いただければ、誰の発言がGOOD発言か、もうお分かりですね。正解は以下のとおり。
<正解>
取締役B:「当社はAIそのものを開発しているわけではなく、また、AIを製品やサービスに組み込もうとしているわけでもありません。規制強化策が固まるまで待つ必要はないです。AIは仕事の在り方を大きく変える可能性があり、その流れに乗り遅れないためにも、『自主的な取り組み』から『会社としての取り組み』に格上げすべきではないでしょうか。そして、何よりも第一に生成型AIの業務利用に関する社内ルールを確立すべきです。」
(コメント:生成型AIを単に社内利用するだけであれば規制強化策を待つ必要は全くありません。上場会社としては、企業価値を維持・向上させていくために、「よく分からないから行動しない」ではなく、分かるために努力してリスクを見極め、時代の変化に取り残されないようにアップデートしていく姿勢が重要となり、その姿勢が垣間見える取締役Bの発言はGOOD発言です。それに加えて、社内ルールの確立を急がせる取締役Bの発言は、生成型AIの業務利用によるリスク顕在化に備えている点もGOOD発言と言えます。)
取締役A:「生成型AIの機能向上を機に、EUで規制強化が検討されるなどAIへの風当たりは強まっています。まずはどのような規制が行われるのかが見えてくるまでは、社内利用を完全に禁止すべきです。」
(コメント:取締役Bのコメントにあるとおり、単なる社内利用であれば、何も生成型AIへの規制強化策の確定を待つ必要はありません。むしろ、完全禁止にすることのデメリットも考慮しなければなりません。取締役Aの発言は無理解による不安に基づくものであり、生産性向上に遅れをもたらしかねないBAD発言です。)
取締役C:「生成型AIの業務利用に関する社内ルールが必要になるのは、会社として取り組みはじめるタイミングでいいので、まずは『会社としての取り組み』をすべきかどうかの検討が先ではないでしょうか。」
(コメント:「X社では、一部の従業員が自主的に生成型AIを日常業務に活用できないかの模索をしている状況」とあり、従業員が生成型AIを試し利用する中で機密情報の漏洩等が起きるリスクがあります。社内ルールの確立は会社として取り組みはじめるタイミングでよいとする取締役Cの発言は生成型AI利用時のリスクが顕在化しかねないBAD発言です。)