Microsoft

マイクロソフトは本日、StopNCIIと提携し、人々が敏感なメディアから作成したデジタルハッシュを使用して、Bingから有害な親密な画像やビデオを積極的に削除することを発表した。

StopNCIIは、リベンジポルノ・ヘルプラインによって運営されているプロジェクトで、人々は自分の携帯電話からメディアをアップロードすることなく、親密な写真やビデオのデジタルハッシュを作成することができます。StopNCIIは、これらのハッシュをデータベースに追加し、同じ画像や類似した画像をオンラインで見つけ、Facebook、TikTok、Reddit、Pornhub、Instagram、OnlyFans、Snapchatなどのパートナーによって削除される。

3月、マイクロソフトはPhotoDNA技術をStopNCIIと共有し、個人の画像や動画がデバイスから離れることなくデジタルハッシュを作成できるようにした。

“StopNCII.orgがすでに使用しているハッシュ化技術(PDQ)とよく似ていますが、PhotoDNAは、特定された有害な画像をデジタル指紋にハッシュ化することを可能にする追加プロセスです。

How StopNCII.org works
StopNCII.orgの仕組み

マイクロソフトは本日、StopNCIIのハッシュデータベースを試験的に使用し、Bing検索インデックス内の親密な画像を削除したと発表した。このデータベースを使用し、マイクロソフトは8月末までに268,899枚の画像に対処したという。

人工知能の台頭により、オンラインで共有される親密でない写真から、深い偽のヌード画像を生成することも増えている。これらの画像は偽物ではあるが、搾取される側にとっても同じように苦痛を与える可能性がある。

DeepTrace(現在はSensity)による2019年のレポートによると、インターネット上のディープフェイク動画の96%がポルノ的な性質を持ち、ほぼすべてが女性の肖像を非同意で使用している。これらの画像の多くは、「リベンジポルノ」として、恐喝のために、あるいは悪徳サイトによる収益を得るためにアップロードされている。

残念ながら、AIが生成した画像はPhotoDNAのハッシュと照合するのが難しい。このような場合、影響を受けた人はマイクロソフト、グーグル、その他のオンラインメディア企業に手動で画像を報告する必要がある。

マイクロソフトによると、影響を受けた人は、Report a Concernのページを使って、Bingの検索インデックスから本物の画像や合成画像を削除するよう要請することができるという。

グーグルはこの取り組みには参加していないが、インデックスから親密な画像を削除するためのガイドラインと方法を提供している