Cogmo Blog

Microsoft 365 CopilotのネーミングにみるChatGPTの使い方

2023年IBM Champion for Data&AIの西原です。ChatGPTの盛り上がりが衰えませんね。おかげさまで3週間前に書いたChatGPTの記事への反響も多く頂いております。ありがとうございます。

さて、話題となって1ヵ月強、OpenAIのChatGPTを試用された方も増えたのではないでしょうか。ChatGPTだけではなく、その技術の上位版であるGPT-4を用いると日本の医師国家試験に合格できるレベルであったという論文(リンク先の右側にあるPDF)も発表され話題になっています。また、MicrosoftはWordやExcel、PowerPointなどのソフトウェアにChatGPTのような生成AIを組み込んだサービス「Microsoft 365 Copilot(コパイロット)」を発表し、驚きをもってメディアが取り上げています。

今回取り上げるのはその「Microsoft 365 Copilot」です。機能の紹介ではなく、AIやChatGPTを個人がどう使うのか、そして、企業がどう向き合うべきなのかについて、「Microsoft 365 Copilot」を通して考えたいと思います。

目次

最高の壁打ち相手としてのChatGPT

AIやChatGPTを個人がどう使うのか、そして、企業がどう向き合うべきなのかについて、「Microsoft 365 Copilot」を通して考える。
そもそも、なぜこのようなテーマを選んだのか。それは、ChatGPTとの付き合い方が上手だなと感じる人たちに共通することが、「Microsoft 365 Copilot」に表れているからです。

SNSで見る限りではありますが、ChatGPTの使い方が上手なんだろうな、と感じる人が何人かいらっしゃいます。例えば、同じIBM Championの江澤さん。大手SIerのクレスコでエヴァンジェリスト的な方。お仕事、学会などで北海道、九州と色々と飛び回られています。また、元IBMのWatsonテクニカルセールスの赤石さん。お目にかかったのは私がWatsonの集まりでセッションを持った時の一度だけですが、魅力的な知性をお持ちの方だなとほんの数分の会話でわかるような方です。例に挙げたお二方以外もそうですが、ChatGPTとの付き合い方が上手だなと象徴される言葉を発信されています。

それは「最高の壁打ち」です。

この「壁打ち」と「Microsoft 365 Copilot」はとても共通するものだと感じています。そのことをお話したいと思います。

謝辞
本テーマのヒントを与えて頂いた、株式会社クレスコの江澤さんとアクセンチュア株式会社の赤石さんに感謝いたします。
江澤さんのQiita
赤石さんのQiita
ChatGPTは本当にプログラミングができるのか 自分の本の練習問題で実験した
【爆速で理解できる】英語の形態素解析の使い方をCHATGPTに教えてもらう

Microsoft 365 Copilotは、個人や従業員の副操縦士である

さて、「Microsoft 365 Copilot」についてです。

2023年4月7日時点では「Microsoft 365 Copilot」がいつから使えるかは公表されていません。機能は発表されており、文章で指示をするとスライドのデザインをしてくれたり、Excelの数値や表から分析を示唆してくれたり、Outlookでメール返信の下書き・ドラフトを作ってくれたり、など既存のOffice系ソフトウェアにアドオン的な形で実装され、個人が使えることが発表されています。これは未来のコンセプトカーという類いの発表ではありません。ChatGPTや生成AIに触れたり、弊社のエンジニアが業務の合間にChatGPTなどの生成AIで色々なチャレンジをした成果を見ると、夢物語の機能ではない、実現可能で便利な機能だと感じます。2023年に使えることはできるのでしょうか。待ち遠しい限りです。

さて、「Microsoft 365 Copilot」の「Copilot」は副操縦士の意味と紹介されています。とても上手いネーミングだと思いませんか。副操縦士と聞くと、なるほど「隣にいてアシスタントが手伝ってくれるのか」と、イメージがしやすいですよね。

ただ、この「Copilot:副操縦士」というネーミングにはもっと深い意味が込められていると勝手に感じています。テクノロジーに対する信念や哲学、未来のあり方などが込められているのではないかと。Microsoftはそのような意味があるとは述べてはいません。ただ、「ChatGPTをどう使うべきなのか」「ChatGPTを企業で規制すべきなのか」というご相談や記事が多い中では、私が感じた意味をお伝えすることはテクノロジーとの向き合い方のヒントになるのではと思います。

AIを信じるのか、航空機事故から考える

突然ですが、CRMという言葉をご存知でしょうか。

そもそも、「壁打ち」と「Copilot:副操縦士」の関連の深さを気付かせてくれたのは、この「CRM」の重要性を伝えたNHKの「エラー 失敗の法則」というシリーズ番組の「ハドソン川の奇跡」の回でした。

「CRM」はマーケティングや営業、顧客対応のストーリーで、SFA(Sales Force Automation)などと共に語られるCRM(Customer Relationship Management)ではありません。「Crew Resource Management」、古くは、「Cockpit Resource Management」と呼ばれる概念です。旅客機のコックピット内、あるいは、整備工場など含めたリソースを安全運行にどう活用していくかという概念です。

このCRM、経営学、人間工学、安全工学などに触れたことがある方はご存知かと思います。私は、「失敗の本質」などの失敗学や、福島第一原子力発電所の政府事故調査報告書などを読む中で知りました。

CRMは1979年にNASAにより提唱され、登場した考え方です。
航空機そのもののハードの安全信頼性が上がった1970年代。にもかかわらず、航空機事故が減らない。この事故率のままではさらなる空の時代が到来することは望めない。そこで、事故に至る原因であった人的要因に焦点を当てると、事故に至る意思決定自体がヒューマンエラーであった。そして、それをもたらしたのはコミュニケーションやプロセスのあり方であり、そこを改善しなければいけない。そのような背景から提唱されたのが、CRMです。

「エラー 失敗の法則」ではユナイテッド航空173便の墜落事故の機長のあり方を通してCRMの重要さを描いていました(番組はNHKオンデマンドで観ることが可能です。再放送もあるのではないでしょうか。あまりネタバレしないようにはします)。着陸のため車輪を下ろしたもののコックピット内の適切なランプが点灯せず、原因調査や緊急着陸の手順に集中するあまり、まさかの燃料切れによって墜落した173便。番組の中では、副操縦士と航空機関士は燃料が少ないことをアドバイスするも、別のことに集中している機長にはその助言が届いていません。実際には、アドバイスというより「そう思う」程度の控えめな指摘で機長の注意を引きつけることができなかったようです。1970年代では、機長は絶対的な存在だったようで、機長と副操縦士などが課題に対して対等に意見を述べ意思決定をするという形にはなっていなかったようです。

一方、ハドソン川の奇跡のUSエアウェイズ1549便では、離陸後にエンジン出力を失った後、機長と副操縦士、また、管制塔などとのコミュニケーションを通して、判断のキャッチボールを行います。別の空港へ着陸する、高度と速度が低すぎるので着水に切り替える、それらの判断が決定されるまでのプロセスが見て取れるよう番組で描かれています。

「Copilot:副操縦士」はアシスタントではなく、意思決定・判断の壁打ち相手

すこしCRMの話が長くなりました。いまでは当たり前にはなっていますが、意思決定にはプロセスが必要ということを改めて述べました。機長と副操縦士が互いに意見を交換することで航空機は安全に運行されます。

では、「Copilot:副操縦士」は私たちにとってどういう存在でしょうか。『隣にいてアシスタントとして手伝ってくれる』という存在でしょうか。それは狭い解釈なんだと思います。
例えば、みなさんは周りの人に「これどう思う?」と投げかけることがありませんか? そのやりとりの中で、判断の確からしさを高めていったりしていると思います。あるいは、「提案資料を作ってほしい」と相談をして、出てきた資料に対して、「ここ良いね、これは思いつかなかった。良い解決策でお客さんの要望に応えているじゃん。でも、ここはこうはどうかな、どう思う?」と作ってもらった相手とブラッシュアップするのではないでしょうか。

私たちは、相手が人であれば自然にそれを行っています。一方、AIである「Copilot:副操縦士」には、作業を依頼し、その結果をそのまま何かに利用しようと思ってないでしょうか? 人で同じことをすれば、こうです。
部下に資料を作らせて、それについて判断もせず、そのままお客さんに持って行ったらまったく話にならず、商談はダメになり、帰社したら君は出来ないスキルが足りないと喚き散らすただの無能な中堅社員です。

ChatGPTとの付き合い方が上手いなと感じる人は「壁打ち」として使っている人でした。上手な人は、「どうすればいい?」「こう思うけどどうかな」というようなことをChatGPTとやりとりしています。

ChatGPTからは必ずしも正しいとは限らない回答も返ってきます。もちろん人でも正しい回答を返してくれているとは限りません。
ただ回答が完全に正しいかどうかは別次元においておき、AIであろうが人であろうが、返ってきた回答に対して、自らの意見や判断を加えていき、さらにコミュニケーションのプロセスを経ることで意思決定をしている。重大な何かを判断するだけではなく資料のデザインを選ぶのような意思決定も同じように行っています。それがみなさんが日々行っていることです。それをそのまま、素直に認め、人に対してするように、ChatGPTなどのAIという機械をパートナーと位置づけて行えば良いのだと思います。

「Microsoft 365 Copilot」というネーミングが素敵だとお伝えしたのは、隣にいてアシスタントとして手伝ってくれるイメージがしやすい、というだけではなく、「Copilot:副操縦士」は「壁打ち」「CRM」など、意思決定プロセスの相手の象徴だからです。Microsoftがその意味を込めたかはわかりませんが、AIという機械との向き合い方を常に正しい位置に修正してくれる良い名前だと思います。

先日「ルビコン川を渡ったのではないか」という東京大学のコメントも話題になりました。これはすべてを否定しているのではなく、正しく向き合う方法を見つけようという、社会と次世代へのメッセージです。また、イーロン・マスクやスティーブ・ウォズニアックらが次世代AI開発を制限すべきという公開書簡に署名しました。これも、AIがただエイリアンのような驚異と言っているわけではありません。制限をかけなければ時速300kmで車は走れます。でも社会的な安全面で制限をかけます。核反応のエネルギーを武器にしてしまった人類と不拡散、削減などの条約。原子力発電の安全性そのものの強化。これらと同じように、人類のパートナーとして、AIというテクノロジーとの向き合い方の落とし所を決めているのがいまです。

AIだからラクになる、面倒なことは全部やってくれる。
100%の正しい回答をしないならAIは使ってはならない。
そんな些末なことを意識するのではなく、テクノロジーとどう向き合い、どう取り込んでいくか(正しくはエコシステムを作るか)を一歩一歩やっていくのがイマなのだと思います。だから、みなさん一緒にやっていきましょう。

最後に無能な中堅社員が喚き散らした相手をAIにしてみます。なんと滑稽な、でも身近にある景色ではないでしょうか。

AIに資料を作らせて、それについて判断もせず、そのままお客さんに持って行ったらまったく話にならず、商談はダメになり、帰社したらAIは完全ではない精度が足りないこのシステムはダメだ、こんなものにいくら金をかけたんだと喚き散らす。

そういう人にはならないようしたいものです。
テクノロジーは退化しません。テクノロジーとどうエコシステム・生態系を作り共生するか。社会としても企業としても、個人としても、それと向き合いながらAIと進んでいけば良いのだと思います。