知らないうちに、あなたの「性的指向」が暴かれているかもしれない。

スマホやPCを使っているときに、AIがあなたの顔を勝手にスキャンして、政治的思想や心理状態、性的指向といった多くの個人情報を読みとってしまう。そんな世の中がもうすぐそこまで来ているようです。

僕たちは、テクノロジーの発展に伴うリスクにどう対処するべきなのでしょうか。

あなたの性的指向は
AIによって割り出される。

ある研究によって開発されたAIの機能が、世界中で物議を醸し始めています。なぜなら、顔の特徴で、LGBTを含めた性的指向を判断してしまうから。ついにここまできたか、という思いと同時に、差別や偏見を助長してしまうのではないか?という懸念も。

ただし、この研究内容を詳しく紹介する前に理解しておいてほしいのは、AI開発を進めたスタンフォード大学の研究者Michal Kosinskiさんたちの想いです。

「多くの人がこの情報を公開すべきだったのか?という疑問を持つでしょう。私たちの考えも同じです。

しかし、ある政府や企業は、顔を認識して好みのものを推測をする技術の開発を、すでに進めているのです。ゲイコミュニティをはじめ、私たちはプライバシーが侵害されるリスクを把握し、今すぐにでも法的な規制を設けるべきなのです」

そう、彼らにはAI技術を開発する際に伴うプライバシーを監視されるリスクを、僕たちに理解してほしいという考えがあるのです。分かっているかもしれないけれど、個人情報が漏れる可能性のあるインターネットには、掲載する情報にも気をつけなければいけないということ。そしてこれをさらに意識させるのが彼らの研究方法です。

アメリカのデートサイトに登録された35,000枚以上の顔写真を元に、AIは性的指向ごとの特徴を割り出すことに成功。そのアルゴリズムを使って推測させたところ、男性の場合は91%、女性は83%の確率で見分けることができたようです。要するに、SNSなどのネットに投稿された写真から、あなたの個人情報を推測する技術が存在するということ。

サンプルに有色人種がいなかったことや、トランスジェンダー・バイセクシャルがいなかったことも指摘されてはいるようですが、いずれにしても、リスクがあるのは同じ。Kosinskiさんは性格や政治思想、心理状態も、顔から判断できる可能性も示唆しながら、こうまとめています。

「個人情報が漏れてしまうことは避けられないでしょう。また、多様なジェンダーに対して寛容的ではない国や文化に生きている人にとっては、身の危険性もあります」

TABI LABO この世界は、もっと広いはずだ。