オンラインコンテンツモデレーションの暗い現実
オンラインコンテンツモデレーションの隠れた世界 デジタル化が進む時代において、オンライン コンテンツを管理する責任は、献身的でありながら見過ごされがちなグループ、コンテンツ モデレーターにかかっています。これらの個人は、インターネットの最も暗い隅々まで行き渡り、暴力、虐待、ヘイトスピーチなどの不快なコンテンツに対処します。テクノロジー企業がオンラインの安全性を確保するというプレッシャーが高まる中、これらのモデレーターは、混沌とした仮想世界で秩序を維持するという使命を負った、名もなき英雄です。 節度を保つことの人的コスト コンテンツのモデレーションは簡単な仕事ではありません。テクノロジーは不適切なコンテンツのフラグ付けに役立ちますが、最終的な決定権は依然として人間のモデレーターにあります。大半はサードパーティ企業に雇用され、Instagram、TikTok、Facebook などのプラットフォームで働いています。このトピックに関する BBC シリーズで私がインタビューした多くのモデレーターは、仕事が彼らに与える精神的負担を強調しました。 ナイロビの元モデレーターの1人は、TikTokが楽しい動画を紹介する一方で、自分はひどく不快なコンテンツをふるいにかける日々を送っていたと明かした。彼は、他の人たちがそのような恐ろしいものにさらされることなくオンライン体験を楽しめるように、自分の精神衛生を犠牲にしたのだ。 こうした仕事が精神衛生に悪影響を及ぼすという証拠が増えるにつれ、法的訴訟も浮上している。東アフリカの元モデレーターの中には、より良い条件と支援を求めるために団結して組合を結成した者もいる。 彼らの仕事の重大さは、モデレーターが本質的にユーザーを過激なコンテンツから守っていると強調したマーサ・ダークのような活動家たちの洞察によって強調されている。2020年、Meta(旧Facebook)は、モデレーターの役割が精神的健康に悪影響を及ぼしていることを認め、モデレーターとの訴訟を5,200万ドルで和解した。 未来: 人間 vs. AI モデレーション 過酷な職務にもかかわらず、多くのモデレーターは自分の役割に誇りを表明した。中には、自分たちを緊急事態の第一対応者に例え、より安全なオンライン空間を作るという自らの取り組みを強調する人もいた。 しかし、AI技術が進歩するにつれ、コンテンツモデレーションにおけるその役割について疑問が生じている。OpenAIの元信頼と安全性責任者であるデイブ・ウィルナー氏は、AIは疲労や精神的苦痛なしに有害なコンテンツを効率的に識別できると指摘した。しかし、ポール・ライリー博士のような専門家は、微妙な人間のやりとりを理解する上でAIには限界があるため、AIだけに頼ることには注意するよう警告している。