ウェブ領域で仕事をしている人であれば知らない人がいない、プロダクトマネジメントの権威、マーティ・ケーガン氏(Marty Cagan)が、Silicon Valley Product Groupのサイト上で生成型AIについての記事を公開していました。
Preparing For The Future - Silicon Valley Product Group
生成AIに対してあのヤコブ・ニールセンも記事を公開していましたが、図らずもCaganは「40年に一度」、Nielsenは「60年に一度」と、二人とも数十年に一度の変化とみているという点で一致しています。
個人的には「30年に一度の大変化(一個前はインターネット)」って思ってたのですが、さらなる大変化と捉えている事に驚きと納得です。
今回は、マーティ・ケーガンの記事と、ヤコブニールセンの記事、どちらも非常に興味深い記事だったので、記事のサマリと、私の感想を述べたいと思います。
まず、マーティ・ケーガンの生成型AIに関する考察から。
"Preparing For The Future" by Marty Cagan
記事タイトルは「未来に備える」という日本語訳になります。記事の中身を踏まえて、もう少し具体的なタイトルをつけるとしたら、「プロダクトマネージャーが知っておくべきジェネレーティブAIの影響と対策」でしょうか。
将来のプロダクト開発においてどのように生成型AIが影響を及ぼすかについて考察しています。
ただ、Cagan氏のこれは誠実さの表れでしょうが、プロダクト開発の領域にも破壊的なインパクトをもたらす(=雇用にも影響を与えうる)と言うこともストレートに述べています。
以下7つのパートに分けて要約します。
イントロ:
サマリ:Caganは、40年以上にわたって技術業界で働いてきた経験から、生成型AIがプロダクト開発に与える影響について考察しています。ケーガンは、パーソナルコンピュータ、インターネット、モバイルコンピューティングなどの過去の技術革新が、多くの企業やプロダクトを破壊的に変えたことを振り返ります。そして、生成型AIも同様に、プロダクトチームの構成や役割、ツールやプロセス、思考や判断、品質や倫理などに大きな変化をもたらすだろうと予測します。
ケーガンは、生成型AIの可能性に興奮しつつも、危険性にも警鐘を鳴らしています。生成型AIが人々の思考や判断を奪ったり、倫理的な問題を引き起こしたりすることを懸念しています。これまでの技術革新と同様、新しい技術を学び、適用し、問題解決に役立てる能力が重要だと強調しています。
個人的にはこのパート、非常にフランクな書き出しで、この技術の革新性とインパクトの大きさを認識している点が印象的でした。
プロダクトチームとチームトポロジー:
サマリ:生成型AIは、エンジニアの認知負荷を減らし、プロダクトチームの自律性と責任範囲を増やす可能性があります。これにより、チームのサイズや数を減らし、コミュニケーションやコラボレーションを改善し、仕事の満足度を高めることができるでしょう。
個人的には、日々生成AIを使う中で、自分の分身が自分の代わりに働いてくれる未来が垣間見えたので、この見解はうなずけます。
チームの自律性とイニシアティブ:
サマリ:プロダクトチームの仕事のやりがいは、自分たちがコントロールできる範囲が広いほど高まります。しかし、多くの組織では、他のチームに依存しなければならないことが多く、意味のある問題に取り組むことが困難です。生成型AIは、プロダクトチームがより大きなイニシアティブを単独で完結できるようにする可能性があります。
こちらの考察も先のパートと同じく、プロダクトチームの一人ひとりのできる事が大きく拡張される側面から、完全に同意できます。たとえばChatGPTプラグインのNoteableは、従来データアナリストに依頼していたタスクが、正しい指示さえできれば誰でもできる事を意味し、コミュニケーションコストの低下やチームのスピード向上などのメリットが生まれると感じました。
チームの社会的動態:
サマリ:プロダクトチームは信頼に基づく社会的な集団であり、異なるスキルや視点を持つメンバーが協力してイノベーションを生み出します。しかし、リモートワークやAIベースのエージェントとのやりとりが増えることで、信頼やコラボレーションが損なわれる恐れもあります。摩擦を避けずに建設的な議論をすることが重要である、と主張しています。
これはAIを待たずにリモートでも起きている事ですね。
思考と判断:
サマリ:生成型AIは私たちの思考や判断力を向上させる可能性がありますが、同時にそれらを奪う可能性もあります。プロダクトチームは難しい問題を解決するために思考や判断力を必要としますが、多くの人は思考することを避けようとします。生成型AIの出力を盲目的に受け入れずに、それが意味することや最善の選択肢であるかどうかを考えることが必要です。
これだけ連日ChatGPTについて報じられる中でも、人によってはハルシネーションといった事象自体を認識していないケースもまだまだ多く見かけます。
個人的には生成AIを使いこなすには、人は「正しい問いをする事」「レスポンスを検証すること」が大事だと考えています。
「問い」は「プロンプト」と言いかえても意味はそんなに変わりません。プロンプトは問いが言語化されたものなので。
「レスポンス」はChatGPT等からの回答、結果のことです。自分の問いに対して、適切なレスポンスとなっているかの検証ができないと、間違いやズレなどに気づけません。
アーティファクト(成果物など):
サマリ:生成型AIはプロダクトチームがコミュニケーションやプロダクトの制作に使うアーティファクト(文書、ロードマップ、仕様書など)を作成するのに役立つと主張しています。これは時間を節約し、面倒な作業から解放する可能性があります。
しかし、アーティファクトを目的としてしまい、実際の作業をしないということがないように注意しなければなりません。アーティファクトは実際の作業の副産物であって、代替物ではありません。
個人的にはそこまで極端に、代替物と勘違いするケースはレアだと思います😅
コードを解析して、要求仕様書を作ると言ったことは現時点でも既に一定できそうですね。
品質:
サマリ:生成型AIは品質保証の方法を革新する可能性がありますが、同時に新たな課題も生み出します。従来のプロダクトは決定論的であり、入力と出力の関係が予測可能でした。しかし、生成型AIによるプロダクトは確率的であり、入力と出力の関係が変わる可能性があります。特に安全性が関わる場合は、適切な振る舞いを保証するために異なるアプローチが必要になるでしょう。
ちょうどこれをまとめているなか、みずほ銀行が富士通と提携し、システム開発・保守に生成AIを活用できるかの実証実験をするという報道がありました。
ChatGPTを作るOpenAIのSam Altmanも、「この技術の限界はまだ我々も分からない」といってるくらいなので、イケる気もします。
プロダクトデザイナー:
サマリ:プロダクトデザイナーはサービスデザインやインタラクションデザインなどのさまざまなデザイン分野に精通しています。生成型AIはビジュアルデザインのスキルが低いデザイナーにとっては脅威となりますが、サービスやインタラクションのスキルが高いデザイナーにとってはチャンスとなります。生成型AIによって新しい技術やユーザーのニーズに応えるエンドツーエンドのユーザーエクスペリエンスを設計することが重要になります。
Midjourney, Stable Diffusion等が台頭する中、非常に興味深く納得感ある考察だと思いました。(現在は!)
そのうち、動きを伴うデザイン領域でも生成AIが浸食してくるとそうは言ってられなくなる可能性もありますね。
プロダクトエンジニア:
サマリ:プロダクトエンジニアは、常に新しい技術を学び、適用する能力が求められます。生成型AIは、エンジニアのツールを大きく進化させ、プロダクトチームの形や規模に影響を与えます。生成型AIは、低レベルのエンジニアリングや既存のソフトウェアを自動化する可能性がありますが、独自のソフトウェアアーキテクチャやモデルの利用法を考える高レベルのエンジニアリングにはあまり影響しないでしょう。生成型AIは、機械学習やデータサイエンスやデータエンジニアリングなどのスキルセットを必要とする場合が多くなります。
この点も非常に納得してしまいました。
となるとエンジニアにとっては、高レベルの業務にシフトするよい機会といえるのでしょう。そのなかで競争が起きるでしょうが…。
プロダクトマネジャー:
サマリ:プロダクトマネジャーの役割は、権限のあるプロダクトチームであれば価値と実現可能性の判断、フィーチャーチームであればプロジェクト管理、デリバリーチームであればバックログ管理というように、チームのタイプによって大きく異なります。生成型AIは、フィーチャーチームやデリバリーチームのプロダクトマネジャーにとっては仕事を奪う可能性がありますが、権限のあるプロダクトチームのプロダクトマネジャーにとっては仕事を助ける可能性があります。生成型AIはアーティファクトの作成や実行要素を助けますが、価値や実現可能性の判断には思考や判断力が必要です。
この考察は、エンジニアのものと構造が似ていると思いました。
今後、どういうプロダクトマネジメントが必要となるのか(生き残るのか)の観点で、我々は考え続けなければなりません。
倫理:
サマリ:最も重要な点は倫理です。生成型AIは驚くべきことを可能にしますが、同時に危険なことも可能にします。私たちは技術を使って世界を改善したいと思っていますが、過去10年間で多くの倫理的な失敗や不正を目撃してきました。生成型AIを使う際には、人々や社会や環境に対する負の影響を検出し防止することが重要です。
Facebook、Twitter、Youtube等のソーシャルツール類が、フェイクニュースの「拡散」に大きく悪用されました。
生成AIは、大量のフェイクニュースの「生成」に大きく寄与してしまいます。各国でいろいろな情報操作が顕在化したり、潜在したままだったりという状況がくることが想像され、大きな社会不安等に繋がる将来像が見えてしまいます。ヨーロッパのAI規制などの動きはこの文脈で、妥当な動きに見えます。
個人的には、Marty Cagan氏のメッセージに対して、まぁポジティブな影響もネガティブな影響も多数みえるものの、使いこなしていくしかなく、むしろ使わないという選択肢はありえない、と考えてます。そして、生成型AIで全てが完結するわけでは当然ないため、人間がするべき事を見極める事が重要と思います。
私はEC・クラシファイド領域で仕事をしていますが、自分達の業務に惹きつけて考えると、以下の要素は考えていく必要があるかなと思いました。
- 自分達のサービス領域(EC・クラシファイド領域)でどのような価値を提供できるか。
例えば、生成型AIを使ってユーザーの嗜好や行動履歴に基づいて商品やコンテンツをパーソナライズしたり、レビューやコメントを自動生成したり、商品画像や動画を高品質に作成したりすることができる。実際にプロトタイプやMVPを作ってみたりして、その効果やフィードバックを検証してみる。 - 生成型AIの出力に頼りすぎず、自分達の思考や判断力を鍛えること。
私は人材育成にも関わってますが、生成型AIが素晴らしいものを作り出すことができると感心していますが、同時にそれに盲目的に従うことはあり得ない・危険だと思っています(今は)。となると役割分担で、自分達の思考や判断力がもっとも生きる箇所に、集中できる・集中するべきと考えます。 - 生成型AIによってプロダクトチームの構成や役割が変わる可能性があることを認識し、自分のスキルや価値を高めること。これが一番重要かもしれません。
生成型AIによって、プロダクトチームの仕事の仕方や必要なスキルは大きく変わっていくでしょう。今はまだ世の中で一斉にどういう使い方をしているかの大規模実験が行われてるフェーズなので、組織として、世の中の事例にキャッチアップし社内浸透させていく必要があります。 - 生成型AIを使う際には倫理的な観点からも慎重に行動し、人々や社会や環境に対する影響を考慮すること。
まだ生成AIに関する倫理観点の議論は日本では少ないです。プライバシー規制周りと同様に、欧米の動向を先んじて見守り、方向性を判断していくのが良さそうです。(ヨーロッパとアメリカとで、全くアプローチが違う可能性もありますが)
総じて、生成型AIはプロダクトマネージャーにとってチャレンジングなものですが、同時にエキサイティングなものでもあります。
「プロダクト」という概念自体も大きく変わる可能性が高いですね。
私の仕事は1年後あるのか・・・?そんな気もしてしまう今日この頃 😹。
ですが、無用に悲観することなく、うまく生成型AIを活用し、より良い世界を作ることに貢献していきたいですね。