【株式会社オルツ 米倉豪志氏】価値観を複製するデジタルクローンを通して見えた、ヒトの可能性(1)

Acaric Journal
この記事は約9分で読めます。

「AJ出張版」は、株式会社アカリクが発行する「大学院生・研究者のためのキャリアマガジン Acaric Journal」の過去の掲載記事や、WEB限定の新鮮な記事をお送りするカテゴリです。今回はvol.2の掲載記事をお届けします。

株式会社オルツが開発するAIアンケートシステム「Nulltitude」では、個々人の価値観を複製したパーソナルAIに対して調査を行い、データを収集することを可能としました。本記事では、パーソナルAI開発の根底にある「デジタルクローン」概念について伺いました。

― パーソナル人工知能(Personal Artificial Intelligence: P.A.I.)の開発経緯について教えてください

 このオルツという会社は、私の弟が社長をやっているのですが、彼はいわゆるシリアルアントレプレナーで、何社か会社を起業しては売却して、ということを繰り返しておりました。そして、最後の起業として作ったのがこのオルツになります。彼が前回の起業時に、「テクノロジーの力を使うことで、人間一人の力をどこまで拡大できるか」をテーマに事業を始めたにも関わらず、事業が大きくなるにつれて組織を管理する方向に向かっていたことに対してジレンマを感じていたそうです。このジレンマを解決するため、その頃はまだチャットボットという言葉も無かったのですが、社内でチャットボットを作って、自分の代わりに採用面接の質問に答えさせてみたら案外うまくいったのです。そこで、これを拡張させていこうという考えのもとにオルツを始めました。

 会社としては、本来人間がやる必要のなかった仕事から人間が解放されることで、人間のみに与えられた本来の使命に集中できる世界を実現するために、デジタルクローンを作ることに取り組んでいます。

― 川柳をAIに作らせることで、人間の本質に迫ろうとする北海道大学の川村先生と同じような方向を目指していると感じました

 日本人の研究者やAI関連の方は、そのように考える傾向があると思います。僕が大好きな将棋のエピソードなのですが、当時最強の将棋AIが将棋のプロと対局して、最後の対局時にプロ側がAIのバグを突いて勝ったことがあります。バグを突いた瞬間にAIの開発者が投了しました。将棋AIを開発していた彼にとって、その勝ち方が許せなかったそうです。真剣勝負をしたかったのに、AIのバグをつくということをプロがやったので許せなかった、ということで、ものすごい議論が起きました。AI開発者が涙ながらにそのことについて語っていたのを見て、日本においてはAIと心が強く結びついてるのだと感じました。

 僕が興味深く感じるのは、日本のAI研究者の方々が鉄腕アトムや、若い世代だとドラえもんが大好きである点です。一方で、欧米のAIに対するイメージは「ターミネーター」なのです。欧米では、AIは「人類の敵」を作っているのです。ここには宗教観が大きく関わっていると思っていて、明文化はされないけれども意識のどこかに一心教的な信仰があるんだと感じます。

 日本の研究者と話していると、多様な価値観が存在していると感じます。欧米では自分という存在が、「絶対的な何かに支配された存在である」と考える一方で、アジアでは「個々人に神が宿っている」という全く違った世界観を持っています。この辺りが先ほどの「人間とは何なのか」をAI研究者が突き詰めていく要因になっていると私は考えます。

― 宗教的な考え方が、AI観にも影響するのですね

 おそらくそうだと思います。統計の概念でも、GAFAがデータを牛耳ることで世界を見ていくわけですが、彼らから見た「私という人間」はどういう存在かというと、数字なのですね。なぜそのように見れるのかというと、個々人は全体を構成する要素に過ぎないというような考え方が根底にあるのではないかと思います。日本のマッドサイエンティストは必ず心を持ったロボットを作りますが、欧米のSFではAIやロボットが人間を滅ぼしにきます。

― 一般の方の中には、自分自身がデジタルなものに置き換わることに対して抵抗を感じる方も多いのではないかと思いますが、P.A.I.に対する社会の反応はいかがですか

 最近NHKで放送されて、急激に一般の方がデジタルクローンに注目し始めてくださいました。そのおかげでいろいろな反応を頂きますが、かなりの割合を「怖い」が占めております。ただ、それはデジタルクローンについてまだ啓蒙しきれていないからだと思います。本当に怖いのは、「ターミネーター」が現れることです。人間を超える存在になったAIが現れることがやはり一番怖いことです。よく、AIによって仕事が奪われると言われますが、それは「ターミネーター」に奪われるのです。

 デジタルクローンには大切なルールが1つあって、「デジタルクローンは本人を超えてはならない」のです。例えば、私のクローンはフランス語を喋れてはなりません。なぜなら、フランス語を喋れるようになった瞬間に私ではなくなる、私のクローンではなくなってしまうから、それはあってはならないのです。そのため、デジタルクローンは私の手が増えるというだけの話です。私の千本の手のようなものがデジタル空間上に伸びていって、心臓が自律的に動いているのと同じように、僕と同じ価値観をもってデジタル空間上で動き回るというような、新しい器官ができるに過ぎないのです。あまり好きな言葉ではありませんが、個人のDXを行うということだと考えています。

― P.A.Iはどのようにして作られているのか、教えていただいてもよろしいでしょうか

 とても簡単に申し上げますと、私のライフログをベースにして、私のモノマネをさせるのです。私のモノマネを大量に学習させます。よく訓練されたピアニストは、ピアノを弾きながら別のこと、今日の晩ごはんのことなどを考えているわけです。それは脳がピアノを弾くことについて完全に会得しており、半自動的に演奏ができるためです。これと同じことがAIでも起こっています。AIのすごいところは、ものすごい速度で練習できてしまうという点です。人間と異なり、フィジカルな制限を持たないが故に、人間が100年かけて練習しなければならないところを、一時間で練習しきってしまいます。モノマネ芸人も一生懸命何度も何度も練習すると思うのですが、デジタルクローンのエンジンも個々人に対して練習をしていきます。本人と見分けがつかないモノマネ芸人ができた時、それは別人なのか、と。寸分違わず完璧なモノマネができた時に、それは本人ではないと言えるのか、というのがデジタルクローンの基本的な考え方です。

― 同じ振る舞いをする人が複製される、ということなのでしょうか

 私たちは「価値観をクローンする」ということだと思っています。その価値観はどこから生まれているのか、を考える必要があるのですが、「価値観は脳の中に存在していて、それが表現される」という考え方に対しては、私たちはそうではないと感じています。価値観はどのように作られているかというと、おそらく先ほど申し上げた練習です。子供の頃から積み重ねてきた練習によって、個々人のアウトプットがそれぞれ少しずつ歪んでいる。この歪みが振る舞いとして表出されるのですが、この表出自体が価値観だと思います。表出自体がすでに価値観を備えた状態であるのが人間で、振る舞いを完全にコピーすると、そこにそのまま価値観が含まれてしまう、と考えるのがデジタルクローンのあり方です。

― 心理学でも、行動に表れているものが心のすべてとする「徹底的行動主義」という考え方があり、それと近い考え方なのかなと思いました。目に見える動きがそうであれば、価値観や考え方がそうなんだということでしょうか

 まさにそうだと思います。デジタルクローンを作る際の大きな誤解が一つありまして、その誤解には2つのアプローチがあります。まず、脳の仕組みを数理的に積み上げていけば、人間ができあがるという考え方です。この考え方は、AI研究者の方々が真剣に取り組んでいらっしゃって、とても素晴らしいと思いますし、一切否定はしません。ただ、それは「機械としての脳」を作ることはできるかもしれませんが、「人間を作ること」はできないと思っています。一方で、私たちはAIではなくデジタルクローンを作っているので、「人間とは何なのか」「私にとって私とは何か」「私にとってあなたは何か」などの哲学的思考を技術に落とし込むことを考える必要があります。その過程を踏まえてやっとできあがるのが、デジタルクローンです。

― 今説明を伺って、AIとデジタルクローンは確かに全然違うということがわかりました

 もちろんAI技術を使いますが、AI技術によって人は立ち現れないと考えるのが私たちの考え方です。

― 先ほどご説明いただきましたP.A.Iの作り方で、ライフログを使用するということでしたが、ライフログを全て使用するというよりは、クローンを作成したい部分のデータのみを使うのでしょうか

 個人の全データを取れることは現状できませんので、現実的にそうならざるを得ません。現時点においても取れるデータはほんのわずかで、まだ生体データなども気軽に大量に取れるような状態でもありません。例えば、髪の毛一本の先の状態まで含めて人間なのですが、そこまで完璧に全てのデータを取れるようになるまではおそらく数百年かかるだろうと思います。そのため、現在データが取れるレベルにおいて、完全なコピーを目指すのが我々のスタンスです。

― どれくらいの期間のログが必要なのでしょうか

 それはアウトプットの質によって変わってきます。例えば、アンケート調査システムのナルティチュードの裏側にいるクローンと、最近NHKが取り上げてくださった、自律的な会話が可能な私と社長のクローンの間には、アウトプットのレベルが大きく異なります。後者は喋ってる内容はもとより、喋り方も含めてコピーされていないと私にはなりません。一方で、ナルティチュードの場合は個々人の文章のアウトプット自体の完成度は求められません。価値観が抽出されていればシステムとして成り立つため、投入しなければならないデータの量が大幅に減ります。私と社長の完全コピーを目指す場合は、過去5年間のチャットやメール、SNSの投稿などを全部投入することで、そこそこいい感じの再現ができます。一方、ナルティチュード程度であればTwitterの投稿データが3か月分ぐらいあれば良いというところが現時点でわかっております。

― 想像していたより少ないデータでできるのですね

 アウトプットされたものに価値観がそのまま表されているという点がとても重要です。価値観がどのようにして現れるのかというと、例えばTwitterのコミュニケーションの中で、とんこつラーメンの話をしてる時に喜々として楽しそうにツイートする人もいれば、二言三言しかツイートしない人もいます。これが価値観です。内容ではなく振る舞いですね。ナルティチュードの一種の種明かしなのですが、データの量が少なくても、振る舞いさえ出てくれればそれは価値観として抽出できるのです。

 実際に、Twitter上で知らない人の投稿を一つ見ても、その人がどういう人なのかはなんとなくわかりますよね。なぜかというと、140文字の中に言語的な意味だけではなく、どのように倒置法が使われているのか、どのような言葉のチョイスなのか、などが統合された形で振る舞いとして表現されているからです。人間は長年かけて立ち居振舞いを見抜く練習をしてきているので、140文字からも立ち居振る舞いを見抜くことができるのです。このようなことをAIもできるということです。

プロフィール(インタビュー当時)

米倉 豪志 氏

株式会社オルツ取締役副社長。1975年愛知県生まれ。2000年にデータ量削減エンジンの発明、開発、特許を取得。国内最大級のモバイル検索サービスの設計を行い、2001年より株式会社メディアドゥ取締役に就任。2013年に株式会社未来少年CTOに就任後、2016年に株式会社オルツ取締役に就任。技術開発、ディレクションを担当。

タイトルとURLをコピーしました