たとえば、教師が生徒にコップに水を注ぐように頼んだ場合、そのような単純な「命令実行」アクションが知恵を高めることは困難です; 困難をどのように克服するか、これは知恵を高めることができる相互作用であり、またそれを反映していますこれは、人間と AI の間の協力的な相互作用に関する私の中心的な視点です。
AI の本質は人間とのコラボレーションとインタラクションであり、インタラクションから継続的に学習し、人間と協力してより適切に問題を解決します。この視点は近い将来ますます重要になると同時に、より技術的かつ倫理的な課題に直面することになり、最終的には収益を維持するのは容易ではなくなるでしょう。誰もが言うAIアラインメントのように、人間は自分の意志をAIに渡し、その後AIでタスクを細分化し、その過程でAIが人間の意志を学習し実現できるようにします。これは新しいコラボレーションの方法、つまり協調的インタラクティブ インテリジェンスです。
**Zhou Bowen: **生成型 AI の爆発的な後、人間との協調的な対話を通じて学習する AI はますます強力になるでしょう。
2002 年にノーベル経済学賞を受賞したダニエル・カーネマンは、ベストセラーとなった著書『Thinking Fast And Slow』の中で、人間の思考にはシステム 1 とシステム 2 の 2 つのモードがあり、システム 1 が速い、と提案しました。システム 2 は思考が遅く、多くの推論と計算を必要とします。
当初、AIは「システム1」のパターン認識をベースとした顔認証や品質検査といった「システム1」の業務に適していると考えられていました。しかし私は、AI の本当の価値は 2 にあると主張します。それは、人間が複雑な論理的推論タスクをより適切に完了できるようにすることです。 **ChatGPT の出現により、システム 2 としての AI の実現可能性が検証されました。つまり、AI は新しい知識を発見でき、新しい知識の発見は、脳科学やコンピューティング最適化の発見など、人間がより良い AI を設計するのに役立ちます。新しい知識を生み出すフライホイールが出現します。フライホイール効果とは、AI によってシステム全体が新しい知識をより適切に発見できるようになり、この新しい知識がより優れた AI システムの設計に役立つという好循環が形成されることを意味します。したがって、AI、知識、イノベーションの間には相互強化の関係が形成されており、そのためには AI と人間のコラボレーション方法を変革する必要があります。
私は以前、「3+1」の研究方向を提案しました。それは、信頼性の高いAIを研究基盤および長期目標として使用し、マルチモーダル表現のインタラクション、人間とコンピュータの協調解釈、および環境の協調進化に焦点を当てるというものです。核となるのは人間であること 機械のコラボレーションと共創によって、人間が AI のイノベーションを支援し、AI が人間のイノベーションを支援するという目標を実現できます。
**Zhou Bowen:**Transformer の核となるハイライトは、自己注意メカニズムとマルチヘッド メカニズムです。 2017年6月にGoogle Brainが出版した『Attending is All You Need』ではセルフアテンション(自己注意)の仕組みとTransformerの概念が紹介されました。その後、OpenAI の GPT もこの論文から深い影響を受けました。
しかしその後、ディープラーニングの専門家でチューリング賞受賞者のヨシュア・ベンジオ氏のチームが「注意メカニズム」を提案しました。その核心は、質問に答える際にすべての単語が同じように重要であるわけではないということであり、より重要な部分を特定し、より多くの注意を払うことです。この部分については、より良い答えを与えることができます。この注目のモデルはすぐに非常に広く受け入れられるようになりました。 2015 年に、私は IBM チームを率いて、「Seq2Seq+Attention Mechanism」アーキテクチャとアイデアに基づいた研究を同時に開始し、自然言語による AI ライティングのための初期の生成モデルをいくつか立ち上げました。関連論文もより多く引用されています。 3000回。
しかし、当時私は論文の内容に満足できませんでした。それは、答えに基づいて注意が組み立てられているという問題があったからです。このようにして訓練されたAIは、大学の期末試験の前に教師に要点の丸付けを依頼し、重点を絞って要点を復習する学生のようなものです。このようにして、特定の問題に対する AI のパフォーマンスを向上させることはできますが、普遍的なものではありません。そこで私たちは、与えられたタスクや出力に全く依存せず、入力された自然言語の内部構造のみに基づいて、どの部分がより重要なのか、またそれらの関係をAIの多読によって学習することを提案しました。自己注意とマルチヘッド メカニズムの表現学習。この種の学習メカニズムはインプットのみに注目し、試験の重要なポイントに基づいて的を絞った断片的な方法で学習するのではなく、学生が試験前にコースを複数回かつ体系的に学習して理解することに似ています。一般的な人工知能の目的を大幅に強化し、AIの学習能力を大幅に強化しました。
**AI テクノロジー レビュー: 論文「Attending is All You Need」とあなたとの関係は何ですか? **
Zhou Bowen: このウェーブのすべての大きなモデルはトランスフォーマーから来ていることがわかっています**。そのため、モデル内に T がある場合、その T はトランスフォーマーを表している可能性が高くなります。 この分野で前向きな仕事ができたことを非常に光栄に思います。 2017 年末、Google の研究者たちは、Transformer モデルを世界にもたらした画期的な論文「Attending is All you need」を発表しました。そして、2017年初めに発表された「マルチホップセルフアテンションメカニズム」を初めて提案した私たちの論文「A Structured Self-attentive Sentence Embedding」が引用されました。この論文の最初の著者である Ashish Vaswani は、IBM で私が指導していた学生でした。論文のタイトル「Attending is All You Need」は、私たちが提案する「自己注意は非常に重要であり、多頭性も非常に重要ですが、RNNは以前に考えられていたほど重要ではないかもしれない」という意味も表しています。
**AI テクノロジー レビュー: OpenAI のオープン API についてどう思いますか? それは業界にとってどのような意味がありますか? **
Zhou Bowen: 個人的な経験から言えば、私はかつて IBM Watson Group の主任科学者でした。当時、米国の一部の業界のデータは規制されており、そのような企業は一般に協力できず、プライベート クラウドを導入することしかできませんでした。そのため、2015年から2016年にかけて私はパブリッククラウドになろうと決意しました。これを実現するには、WatsonのAI機能をAPI化する必要がある。当時、私は対話や自然言語理解を含む数十の API の立ち上げを主導しました。これらの API をクラウド プラットフォーム上に配置すると、現在 IBM の AI ビジネスは主にそこから収益を上げています。
2017年末に中国に戻り、2018年4月にJD.comの人工知能オープンプラットフォームをリリースしました。当時、中国には基本的に AI プラットフォームが存在せず、これも JD.com に多大な収入をもたらしました。 2019 年、私が率いる JD.com AI チームは 1 億 7,000 万元の収益を上げました。これは 200 人のチームとしては悪くありません。
Zhou Bowen: 将来的には、これらの明確に定義された価値の高いワークフローは、一般的な AI モデルではなく、プロフェッショナルな AI モデルによって完成されると思います。汎用大型モデルは、ある程度の垂直シーンが完成した後は、基本性能をさらに向上させることが容易です。さらに、垂直シナリオから始めれば、コンピューティング能力、データ、アルゴリズムに関するこれまでの蓄積をより最大限に活用できます。したがって、Lianyuan Technologyでは、大型モデルは技術の基礎となるフレームワークに一般的な大型モデル技術の基本機能を備えている必要があり、科学的方法で評価する必要がありますが、専門的なトレーニングも必要です。
2023 年、ChatGPT の突然の人気により、市場はその大きな可能性を説明するために AI 2.0 を使い始めました。さらに、ほぼすべてのテクノロジー大手が参戦し、ベンチャーキャピタル市場は新たなチャンスを掴もうとしており、市場環境も急速に変化しています。 GPT は体系的な起業の機会ですが、ただ模倣し、フォローし、追いつくだけではリスクがあり、困難です。
対話丨ボーエン・ジョウ: 一般的な大規模モデルは、垂直産業のシナリオをどのように突破するのでしょうか?
著者:王永港、編集者:Dong Zibo
**出典:**AI テクノロジーのレビュー
JD.com を去った後、Zhou Bowen がこんなに興奮しているのは久しぶりです。
ChatGPT は、春の雷鳴があらゆる階層の実践者を目覚めさせたように、世界をかき乱し、全員が AGI が現実に参入する足音を聞くようになりました。
この隆盛の中で、人々は王惠文氏と王暁川氏が自分のビジネスを始めるのを目撃し、また百度やアリババが市場を支配しているのを目撃した。周博文氏は、IBM および JD.com の AI 研究所の前所長として、25 年以上にわたって人工知能の基礎理論と中核となる最先端技術、アプリケーション、産業化を研究し、Lianyuan Technology を設立しました。モデルは、生成 AI、マルチラウンド対話、人間とコンピューターのコラボレーション テクノロジを備えており、企業と消費者が人工知能の新時代における製品イノベーションとデジタル インテリジェンス変革を完了するのに役立ちます。 「この分野でビジネスを始めようと決心したというよりも、このビジネスに出会ったと言ったほうがいいでしょう。」 ジョウ・ボーウェン氏は、あたかも使命感が彼に行動を促しているかのように、これをやらなければならないことだと表現しました。
Zhou Bowen氏は中国科学技術大学を卒業し、その後コロラド大学ボルダー校に進学して博士号を取得しました。 IBM Researchの米国本社人工知能基礎研究所の元所長として、長年AI関連業務を統括した後に中国に戻り、JDグループの上級副社長、グループ技術委員会の委員長、JDグループの社長などを歴任した。 JD CloudとAI、JD人工知能研究所の創設社長などを歴任。 JD AIの創設者として、JD AIの技術研究と事業開発を担当し、インテリジェントなサプライチェーン人工知能のための全国的なオープンプラットフォームを構築するために、JD AI事業部、AI研究所、JD AI Acceleratorを0から設立しました。 、毎日の通話量を 0 から数百億まで実現し、京東人工知能カスタマー サービスの技術的再構築を主導し、外部製品化を開始し、数十億の技術サービス ビジネスと数千の統合テクノロジー、製品、マーケティング、販売チームを管理しました。
2021 年、Zhou Bowen 氏は、近い将来、生成 AI が爆発的に普及すると予測したため、JD.com を辞め、Lianyuan Technology を設立することを決めました。Lianyuan Technology は、垂直型企業が一般的な大規模モデルで製品イノベーションとデジタル インテリジェンス変革を実行できるよう支援することに注力しています。 AIのコモディティ価値を再構築し、2022年に清華大学の恵岩主任教授および電子工学部の終身教授を務め、同年5月にはCollaborative Interactive Intelligence Researchを設立する予定です。清華大学の中心、偶然。 **
ChatGPT の登場が目前に迫っており、Zhou Bowen 氏もモーメンツに「中国の OpenAI は新たな道を模索する必要があると信じています!」と投稿し、誇りの下、人材の発掘に熱心です。しかし、他の起業家とは異なり、Zhou Bowen氏とLianyuan Technology氏は、一般的な能力に基づいて人と商品の関係をよりよく理解できる大規模なモデルを作成するために、数百億のパラメータと独自のトレーニング方法に依存することを選択しました。製品の洞察、ポジショニング、設計、研究開発からマーケティングまでのフルリンクイノベーションシステム。
Zhou Bowen氏はかつて公の場で、自分の起業家としての方向性は、企業のデジタルインテリジェンスイノベーションにより高い価値をもたらすために、人工知能と伝統産業の統合を主導すること、つまり、垂直シナリオにおける一般的な大規模モデルの能力におけるブレークスルーを達成することであると述べた。
最近、AI Technology Review の記者が Zhou Bowen 氏と会話しました。以下は会話の記録です。AI Technology Review は元の意味を変えずに内容を編集しました:
AI に人間の知恵を学ばせ、インタラクションとコラボレーションの新しいパラダイム
**AI テクノロジー レビュー: ChatGPT はこのインタラクション方法をもたらしましたが、以前のインタラクション方法と何が違うと思いますか? **
Zhou Bowen: 私の研究の方向性の 1 つは、AI と人間の間の相互作用、およびその相互作用における学習です。人間とコンピュータの対話は、人間とコンピュータの対話とは異なります。人間とコンピュータの対話を通じて、AI はその過程で物事を学習することができるため、これは実行する単純なタスクではなく、学習を達成するための手段です。
『論語』に記されているように、孔子と72人の弟子たちが交流を通じて学んでいく物語です。西洋では、プラトンやアリストテレスのアテネアカデミーと同様に、最古の知識と知恵の継承は人々の間の対話を通じて達成され、教師は生徒との交流を通じて生徒がよりよく学習を完了できるよう支援します。
たとえば、教師が生徒にコップに水を注ぐように頼んだ場合、そのような単純な「命令実行」アクションが知恵を高めることは困難です; 困難をどのように克服するか、これは知恵を高めることができる相互作用であり、またそれを反映していますこれは、人間と AI の間の協力的な相互作用に関する私の中心的な視点です。
AI の本質は人間とのコラボレーションとインタラクションであり、インタラクションから継続的に学習し、人間と協力してより適切に問題を解決します。この視点は近い将来ますます重要になると同時に、より技術的かつ倫理的な課題に直面することになり、最終的には収益を維持するのは容易ではなくなるでしょう。誰もが言うAIアラインメントのように、人間は自分の意志をAIに渡し、その後AIでタスクを細分化し、その過程でAIが人間の意志を学習し実現できるようにします。これは新しいコラボレーションの方法、つまり協調的インタラクティブ インテリジェンスです。
**AI テクノロジー レビュー: インタラクションを通じて価値の一致を達成することは、人間の脳と GPT が協力するための効果的な方法だと思いますか?人間とAIはどのように連携すればより良く機能するのでしょうか? **
**Zhou Bowen: **生成型 AI の爆発的な後、人間との協調的な対話を通じて学習する AI はますます強力になるでしょう。
2002 年にノーベル経済学賞を受賞したダニエル・カーネマンは、ベストセラーとなった著書『Thinking Fast And Slow』の中で、人間の思考にはシステム 1 とシステム 2 の 2 つのモードがあり、システム 1 が速い、と提案しました。システム 2 は思考が遅く、多くの推論と計算を必要とします。
当初、AIは「システム1」のパターン認識をベースとした顔認証や品質検査といった「システム1」の業務に適していると考えられていました。しかし私は、AI の本当の価値は 2 にあると主張します。それは、人間が複雑な論理的推論タスクをより適切に完了できるようにすることです。 **ChatGPT の出現により、システム 2 としての AI の実現可能性が検証されました。つまり、AI は新しい知識を発見でき、新しい知識の発見は、脳科学やコンピューティング最適化の発見など、人間がより良い AI を設計するのに役立ちます。新しい知識を生み出すフライホイールが出現します。フライホイール効果とは、AI によってシステム全体が新しい知識をより適切に発見できるようになり、この新しい知識がより優れた AI システムの設計に役立つという好循環が形成されることを意味します。したがって、AI、知識、イノベーションの間には相互強化の関係が形成されており、そのためには AI と人間のコラボレーション方法を変革する必要があります。
私は以前、「3+1」の研究方向を提案しました。それは、信頼性の高いAIを研究基盤および長期目標として使用し、マルチモーダル表現のインタラクション、人間とコンピュータの協調解釈、および環境の協調進化に焦点を当てるというものです。核となるのは人間であること 機械のコラボレーションと共創によって、人間が AI のイノベーションを支援し、AI が人間のイノベーションを支援するという目標を実現できます。
その 1 つはマルチモーダル表現相互作用であり、大統一理論が存在する可能性があります。 2022 年の時点でも、人々はこれについてまだ懐疑的ですが、GPT-4 の出現により、このマルチモーダルの統一表現インタラクションはより説得力のあるものになりました。もう 1 つのポイントは、人間とコンピューターの協調的なインタラクションです。 2022 年にも人々はこれについて懐疑的でしたが、今ではこのインタラクション手法の信頼性が高まり、人々はそれが起こる可能性が高いと信じ始めています; 3 番目のポイントは AI と環境の共進化です。つまり、AIは人間と協力するだけでなく、周囲の環境に適応する必要があるということです。私たちはこのコンセプトを 2022 年の初めに初めて提案しましたが、これまでのところ、OpenAI さえも含め、この方向で成功した事例はありません。
OpenAIは学べないがMicrosoftもできないなら、国内の大規模事業立ち上げの場合は減算する必要がある
**AI テクノロジー レビュー: Transformer モデルの特徴は、テキストのモデル化にアテンション メカニズム (アテンション) を使用していることですが、AI アテンション メカニズムに関する研究を非常に早くから行っていることがわかりました。 **
**Zhou Bowen:**Transformer の核となるハイライトは、自己注意メカニズムとマルチヘッド メカニズムです。 2017年6月にGoogle Brainが出版した『Attending is All You Need』ではセルフアテンション(自己注意)の仕組みとTransformerの概念が紹介されました。その後、OpenAI の GPT もこの論文から深い影響を受けました。
これに先立って、私はエンコーダーを改善するためのマルチホップセルフアテンションメカニズムを導入する最初の論文を責任著者として出版しました - 「構造化セルフアテンションセンテンス埋め込み」。この論文は 2016 年に完成して arXiv にアップロードされ、2017 年初めに ICLR で正式に公開されました。私たちはこのメカニズムを提案した最初のチームでもあり、さらに重要なことに、これは下流のタスクを考慮しない最初の自然言語表現モデルです。全然。誰もがこれまでに、場合によっては注意や自己注意を使用したことがありますが、それらはすべてタスクに依存します。
**AI テクノロジーのレビュー: この論文で何を発見しましたか?これらの発見は、その後の Transformer テクノロジーの変化にどのような影響を与えましたか? **
Zhou Bowen: 私たちは論文の中で、最適な表現方法は構造化自己注意を使用して自然言語を表現することであると提案しました (NLP)。この論文は出版以来 2,300 回以上引用されています。
これに先立ち、OpenAI の首席科学者である Ilya Sutskever は、最良の表現方法は「シーケンスツーシーケンス (Seq2Seq)」、つまり、あるドメインのシーケンスを別のドメインのシーケンスに変換するようにモデルをトレーニングすることであると信じていました。機械翻訳の対応するソース言語とターゲット言語など、または質問がシーケンスであり、回答がシーケンスである質問応答などです。これに基づいて、ディープ ニューラル ネットワークによって表される 2 つの間のマッピング関係が学習されます。
しかしその後、ディープラーニングの専門家でチューリング賞受賞者のヨシュア・ベンジオ氏のチームが「注意メカニズム」を提案しました。その核心は、質問に答える際にすべての単語が同じように重要であるわけではないということであり、より重要な部分を特定し、より多くの注意を払うことです。この部分については、より良い答えを与えることができます。この注目のモデルはすぐに非常に広く受け入れられるようになりました。 2015 年に、私は IBM チームを率いて、「Seq2Seq+Attention Mechanism」アーキテクチャとアイデアに基づいた研究を同時に開始し、自然言語による AI ライティングのための初期の生成モデルをいくつか立ち上げました。関連論文もより多く引用されています。 3000回。
しかし、当時私は論文の内容に満足できませんでした。それは、答えに基づいて注意が組み立てられているという問題があったからです。このようにして訓練されたAIは、大学の期末試験の前に教師に要点の丸付けを依頼し、重点を絞って要点を復習する学生のようなものです。このようにして、特定の問題に対する AI のパフォーマンスを向上させることはできますが、普遍的なものではありません。そこで私たちは、与えられたタスクや出力に全く依存せず、入力された自然言語の内部構造のみに基づいて、どの部分がより重要なのか、またそれらの関係をAIの多読によって学習することを提案しました。自己注意とマルチヘッド メカニズムの表現学習。この種の学習メカニズムはインプットのみに注目し、試験の重要なポイントに基づいて的を絞った断片的な方法で学習するのではなく、学生が試験前にコースを複数回かつ体系的に学習して理解することに似ています。一般的な人工知能の目的を大幅に強化し、AIの学習能力を大幅に強化しました。
**AI テクノロジー レビュー: 論文「Attending is All You Need」とあなたとの関係は何ですか? **
Zhou Bowen: このウェーブのすべての大きなモデルはトランスフォーマーから来ていることがわかっています**。そのため、モデル内に T がある場合、その T はトランスフォーマーを表している可能性が高くなります。 この分野で前向きな仕事ができたことを非常に光栄に思います。 2017 年末、Google の研究者たちは、Transformer モデルを世界にもたらした画期的な論文「Attending is All you need」を発表しました。そして、2017年初めに発表された「マルチホップセルフアテンションメカニズム」を初めて提案した私たちの論文「A Structured Self-attentive Sentence Embedding」が引用されました。この論文の最初の著者である Ashish Vaswani は、IBM で私が指導していた学生でした。論文のタイトル「Attending is All You Need」は、私たちが提案する「自己注意は非常に重要であり、多頭性も非常に重要ですが、RNNは以前に考えられていたほど重要ではないかもしれない」という意味も表しています。
**AI テクノロジー レビュー: あなたと OpenAI はどのような一貫した技術的判断を持っていますか? **
** Zhou Bowen: この論文と Transformer アーキテクチャはすべてを完全に変え、モデルの長距離記憶の問題を解決しました。 Ilya Sutskever 氏は最近のインタビューで、この論文が発表された翌日に OpenAI が Transformer アーキテクチャに完全に切り替えたことを思い出しました。 **
GPT が Bert のモデルとは大きく異なることはわかっており、Bert が最初は非常に成功したが、その後 GPT ほど良くなかった理由は、GPT が左から右への情報と右から左への情報の両方を使用するためです。言い換えれば、Bert は AI が表現方法を学習するのに未来の情報を使用しますが、GPT は過去の情報のみに基づいて次の単語が何になるかを予測することに固執しています。 **この点に関する OpenAI のアプローチは、私たちのチームの考え方、つまり、学習に答えを使用しないようにしようという考え方と一致しています。 **注意から自己注意へ、BERT から GPT-3 まで、中心となる考え方は、予測される出力や単語のコンテキストなどの将来の情報に依存しなくなるとき、またはより多くのデータを使用して予測できるようになったときです。 AI モデルをトレーニングすると、AGI の可能性が見え始めます。
さらに、OpenAI は、大規模モデルが自然言語を通じて世界の知識を学習し、世界の知識を大規模なモデルに圧縮すると考えており、GPT シリーズの大型モデルや ChatGPT もこの概念に従って推進されています。汎用的な大規模モデルを構築し、専門的なトレーニングを通じて垂直分野でより高い価値と能力を発揮できるようにし、消費者を統合するという、私とチームのコンセプトとビジョンについても同様です。複雑な感情、ニーズ、経験、製品のイノベーション、デザイン、製品パラメータ、素材、機能などを大規模なモデルに圧縮して、人と製品の二項関係を再構築し、AIを使用して製品の価値を再構築します。製品。
**AI テクノロジーのレビュー: 技術的な強みに加えて、OpenAI には他にどんなメリットがあると思いますか? **
Zhou Bowen: 技術的な判断の観点だけでなく、エコシステムの確立、新しいムーアの法則の発表、API 価格の 90% の削減など、OpenAI のビジネス アプローチ全体が代表的です。資本とユーザーの想像力の空間を大型モデルの商用応用に活用し、ほぼ無制限の応用シナリオを導き出します。さらに、OpenAI の倫理ガバナンス、ビジネス開発、エコロジー技術、将来の開発に関する計画も非常に明確です。
**AI テクノロジー レビュー: 次の OpenAI は中国に登場しますか? **
** Zhou Bowen: ** 大規模なモデルを構築する技術的な難しさは、実際には多くの中国人起業家の想像を超えています。したがって、国内企業が「OpenAI + Microsoft」モデルを盲目的に追随して模倣することはお勧めしません。中国のほとんどの中国テクノロジー企業はビジネス上の意思決定がMicrosoftほど優れておらず、テクノロジーに関する判断力もOpenAIほど優れていないからです。 。 **
OpenAI の成功は、多くの要因の結果です。たとえば、Ilya Sutskever が技術的な判断を行い、Greg Brockman が機能を実行し、Sam Altman が倫理や社会に対する AI の影響に関する研究を含むリソースを統合しました。国内企業がOpenAIを真似するだけでは、互いの距離はますます遠ざかってしまうだろう。
世界中のすべてのデータが同じように重要であるわけではないため、OpenAI の技術的判断はデータの範囲からわかります。 OpenAI が思考連鎖をトレーニングするために Github のプログラミング言語を使用することを選択したのはなぜですか?プログラミング言語のセマンティクスと構文は非常に単純であるため、実行プロセスのロジックは厳密です。これも OpenAI の特徴であり、無闇に攻撃しないという利点を表しています。したがって、中国のAI開発は別の道を見つける必要がある、つまり、一般的な大型モデルの能力に依存して、垂直シナリオの適用から開始する方が成功する可能性が高いと思います。
生成 AI は既存の消費者エクスペリエンスを破壊します
**AI テクノロジーのレビュー: なぜ消費者部門をターゲットにしているのですか? **
Zhou Bowen: 私が JD.com にいたとき、「消費者の需要と製品設計を人工知能で動的にマッチングさせる」という大きなビジネス チャンスがあると感じました。 2021 年に私は仕事を辞め、特定ではないシナリオからすべての消費者行動をカバーしたいと考え、垂直産業向けの一般的な大言語モデルを開発するビジネスを始めることにしました (当時、大言語モデルは爆発的に普及していませんでした)。月曜から金曜まででは時間と空間のシーンが異なり、ホワイトカラーやその他の職業の焦点も異なりますが、買い物行動に影響を与えるこれらの文化的シンボルの背後には、消費者の複雑な感情、経験、製品選択が存在します。 、これはまさに企業が必要とする貴重な情報です。供給側で製品を作る場合、創造性、デザイン、製品パラメータ、機能、素材、ブランドのポジショニング、スローガン、マーケティング、広告、マーケティング、プロモーション画像などが含まれます。実際、これらすべての要素の背後には強い対応関係があります。
このような対応関係は、これまで人類に経験されたことがありません。企画、マーケティング、販売の実務者は、自分が担当するリンクのみを理解しています。そして、私たちは世界初の商品サプライチェーンの汎用大規模モデルを作成します。つまり、これらすべての情報を忠実度の高い汎用モデルに圧縮し、この大規模モデルに基づいて、エンタープライズ製品のライフサイクル全体。これには、機会洞察 (発見)、製品定義 (定義)、プログラム設計 (設計)、研究開発の推進 (開発)、マーケティング変革 (配布) が含まれます。このようにして、企業はイノベーションの機会をより効率的に発見し、より創造的に設計および生産し、マーケティングプロモーションを実行し、ユーザーにリーチし、より効果的に変革を完了することができます。
**AI テクノロジーのレビュー: ビジネス モデルの観点からは、これはより先進的であると思われます。 **
Zhou Bowen: 起業家チームにとって、大規模モデルの一般的な技術能力を備えた後、より専門的な能力を養うことができることが非常に重要です。現時点では、GPT の画期的な点は主にその一般的な能力にありますが、特定の業界や垂直分野におけるその価値はまだ開発されていません。例: GPT は非常にリアルな芸術的な絵画を描くことができますが、回路図は描くことができません。物理的知識についての知識が十分ではなく、詳細かつ関連性のある判断は十分に専門的ではありません。
したがって、消費者が必要な商品を見つけやすく、購入意欲を高めるための、これまでの買い物経路を一変させるようなツール(プロ仕様の機能を備えた汎用の大型モデル)が必要であると考えています。 。生成 AI は、大量のビジネス情報をこのような大規模なモデルに圧縮して、商品サプライ チェーンのあらゆる側面を学習し、消費者を中心とした主要なリンクの効率を向上させることができます。これは、2021 年にすでに生み出されているアイデアと創造性です。
**Lianyuan Technology は、一般的な機能を備えた大型モデルを開発中であり、この大型モデルは製品と消費者を結び付ける専門知識を備えています。 **大規模モデルの評価指標は37項目あり、そのうち2/3は推論能力や計算能力などの汎用能力であり、十数項目は製品と消費者のつながりに特化したものとなっております。 「すべての製品がニーズから生まれ、すべての消費者が欲しいものを手に入れられるようにする」という目標を実現します。
**AI テクノロジーのレビュー: 生成 AI は、どのようにして電子商取引などの消費シナリオとより適切に統合できるでしょうか? **
**Zhou Bowen:**人間は計画のビジネス ロジックかマーケティングのロジックしか理解できませんが、AI はすべてのビジネス チェーンを開くことができます。
消費者は、電子商取引プラットフォームなどのシナリオで必要な商品を見つけるために多くの専門用語を必要としますが、その一方で、販売者は消費者の本当のニーズを理解しておらず、電子商取引、コンサルティングを通じてのみ消費者にリーチすることができます。消費者をさらに理解するための研究機関。 ProductGPT のようなマルチラウンド対話機能を導入すると、商品に関する販売者と消費者の動的なマッチング効率が市場調査よりも効率的になるため、電子商取引プラットフォームは製品のイノベーション、設計、研究開発、およびサービスにさらに深く参加できるようになります。マーケティング、プロモーションなど
実際の商業社会では、需要側と供給側の間には強い対応関係が存在します。当社が自社開発した最先端のコラボレーション イノベーション プラットフォーム SaaS は、大規模モデルのマルチモーダルな理解、推論、生成機能に基づいており、企業が消費者、シナリオ、製品、製品リファレンス、研究開発に対する深い洞察を通じてビジネス チャンスと製品イノベーションを発見できるように支援します。 。同時に、Lianyuan Technology の ProductGPT マルチラウンド対話プラットフォームは、企業の各従業員に、さまざまな専門的役割に応じて深くカスタマイズされたパーソナル アシスタントを提供し、役割固有のスキルと知識を提供することで、従業員の特定の仕事のニーズを満たします。たとえば、Lianyuan Technology の消費者調査パーソナル アシスタントは、市場動向の調査、消費者ニーズの理解、市場調査などの専門的なスキルと関連知識を提供します。
**AI テクノロジーのレビュー: JD.com で収益を上げるために生成 AI を使用しましたが、どのようにしてそれを実現しましたか? **
**Zhou Bowen:**2019 年、私は JD.com の AI チームを率いて、製品のコピーライティングを作成し、画像を選択するために生成型人工知能を適用しました。これは、JD.com にとって初の大規模生成モデルでもあります。当時、私たちの AI モデルは主に 3 つのことを達成しました。
まず、製品詳細ページの内容を自分で読み、分析を通じてこの製品の 8 ~ 9 つのセールス ポイントを直接生成できるようになります。
第 2 に、消費者が特定の製品を閲覧すると、大きなモデルはさまざまな消費者の行動データを分析することで、どのセールス ポイントがユーザーをより感動させることができるかをすぐに見つけ出します。
第三に、AIGC は、ユーザーのポートレートに基づいて、消費者が最も懸念するセールス ポイントを中心とした独自のスローガンを生成します。
一定期間の導入後、製品レコメンデーションのコンバージョン率は以前と比べて 30% 増加しました。消費者は、JD.com で検索して買い物をするときに表示される製品カテゴリと説明が、実際には、ユーザーが製品を閲覧した瞬間の製品の好みやセールス ポイントに基づいて、AIGC によって 1 語ずつ自動的に生成されていることに気づいていない可能性があります。 。
**AI テクノロジー レビュー: OpenAI のオープン API についてどう思いますか? それは業界にとってどのような意味がありますか? **
Zhou Bowen: 個人的な経験から言えば、私はかつて IBM Watson Group の主任科学者でした。当時、米国の一部の業界のデータは規制されており、そのような企業は一般に協力できず、プライベート クラウドを導入することしかできませんでした。そのため、2015年から2016年にかけて私はパブリッククラウドになろうと決意しました。これを実現するには、WatsonのAI機能をAPI化する必要がある。当時、私は対話や自然言語理解を含む数十の API の立ち上げを主導しました。これらの API をクラウド プラットフォーム上に配置すると、現在 IBM の AI ビジネスは主にそこから収益を上げています。
2017年末に中国に戻り、2018年4月にJD.comの人工知能オープンプラットフォームをリリースしました。当時、中国には基本的に AI プラットフォームが存在せず、これも JD.com に多大な収入をもたらしました。 2019 年、私が率いる JD.com AI チームは 1 億 7,000 万元の収益を上げました。これは 200 人のチームとしては悪くありません。
**AI テクノロジー レビュー: 業界では、垂直方向の大規模モデルを作成するリスクが非常に高いという認識があります。どう思いますか? **
Zhou Bowen: 将来的には、これらの明確に定義された価値の高いワークフローは、一般的な AI モデルではなく、プロフェッショナルな AI モデルによって完成されると思います。汎用大型モデルは、ある程度の垂直シーンが完成した後は、基本性能をさらに向上させることが容易です。さらに、垂直シナリオから始めれば、コンピューティング能力、データ、アルゴリズムに関するこれまでの蓄積をより最大限に活用できます。したがって、Lianyuan Technologyでは、大型モデルは技術の基礎となるフレームワークに一般的な大型モデル技術の基本機能を備えている必要があり、科学的方法で評価する必要がありますが、専門的なトレーニングも必要です。
2023 年、ChatGPT の突然の人気により、市場はその大きな可能性を説明するために AI 2.0 を使い始めました。さらに、ほぼすべてのテクノロジー大手が参戦し、ベンチャーキャピタル市場は新たなチャンスを掴もうとしており、市場環境も急速に変化しています。 GPT は体系的な起業の機会ですが、ただ模倣し、フォローし、追いつくだけではリスクがあり、困難です。
Lianyuan Technology の設立後、当社は 100 社を超える顧客とコミュニケーションを図り、実際のニーズを把握し、大規模モデルを継続的に最適化することでテクノロジーの実現パスを改善してきました。「2022 年に、このシナリオの商業的価値と技術的な実現可能性を実証しました。これは、つまり、たとえ大きなモデルを作っていたとしても、OpenAIとは異なる軌道を歩んでおり、収益モデルも異なります。
私がやりたいのは、現在の GPT よりも優れたワールド ナレッジ コンプレッサーです。これには非常にインタラクティブなデータが必要で、データは明らかにシーンと密接に関連しています。どのようなデータが人間の高度な知性を意味するのかについては、理論的にはまだ多くの研究が必要であり、将来的に検討する価値のある方向性です。