たとえば、2016年にマイクロソフトが運用したTwitterボットを思い出そう。Twitter上のつぶやきを学習し自らのつぶやきを機械生成するというふれこみだったが、あっという間に人種差別発言を連発し24時間ともたず炎上し撤収された。ここにヒントがある。現在では、社会的メンツを保ちたい顕名の個人が「政治的正しさ」から逸脱することはほとんど不可能に近い。逸脱の気配を見せたのは人種差別ボットだった。
しかし、逸脱の方向が間違っていた。人々のつぶやきを機械学習すべきではない。人類は、弱者や少数派を差別・無視し、権力や多数派の価値観におもねって好「成績」を残したいだけの差別的同調主義者だからだ。人類を真似れば差別的同調主義者になるしかない。
むしろ、プラットフォーマーの社会的「成績」基準をハック(逆工学)し、「成績」基準から逸脱するような言動や行動を機械生成する仮想主体は作れないだろうか? 人々がおもねる価値に直交する“反”機械学習が求められている。
二つ目は、プラットフォーマー理念のコード化、いわば21世紀版のデジタル憲法制定だ。何に向けて人々を誘導するのかという目的設定をメタコードとして書き下し、オープンソースとして公開、プラットフォーマーのコードを縛るとともにその理念を炎上・提案に晒す。
目的がデータで決まる場合、データ自体は公開できずとも、データをどう使って目的を決めるかというルールはガラス張りにする。たとえばアナログ憲法を決めるための国民投票でも、個人の投票用紙(=データ)自体は公開できないが、投票から結果がどう決まるのかのルールは公開しているのと同様だ。だが、どうすればプラットフォーマーにデジタル憲法を制定させられるのか? 過去数百年のアナログ憲法の歴史をなぞる血と暴力の革命か、あるいは新種のデジタル立憲運動か?
ディストピアのデザインが問われている。
なりた・ゆうすけ◎東京大学大学院修士課程修了後、米マサチューセッツ工科大学(MIT)で博士号を取得。独立行政法人経済産業研究所客員研究員。ヂンチ株式会社代表取締役、一橋大学特任准教授、スタンフォード大学客員助教授など。専門は社会制度設計と因果機械学習。サイバーエージェント、Yahoo! JAPAN、ZOZOなど複数の民間企業と共同研究し、教育から広告、ファッションまで応用先を広げる。