エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
7 usersがブックマーク
0
「性的に露骨」と称して検閲されるLGBTQ+コンテンツ | p2ptk[.]org
記事へのコメント0件
- 注目コメント
- 新着コメント
新着コメントはまだありません。
このエントリーにコメントしてみましょう。
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
いまの話題をアプリでチェック!
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「性的に露骨」と称して検閲されるLGBTQ+コンテンツ | p2ptk[.]org
Electronic Frontier Foundation 児童性虐待画像︵CSAM︶対策のためにバックドアを開放するという先日の...
Electronic Frontier Foundation 児童性虐待画像︵CSAM︶対策のためにバックドアを開放するという先日のAppleの発表を受けて、プライバシーにもたらす影響を懸念するのは当然である。 いつものように、あるグループは別のグループよりも偏って大きな被害を受けることになる。Appleの計画する機能の1つは、ファミリープランに加入している未成年のiPhoneユーザが、Appleの機械学習による分類で﹁性的に露骨﹂と定義された写真をiMessageで送受信しようとすると、その旨を通知するというものである。13歳未満の子どもが送受信を選択した場合には、そのことが親に通知され、親が後に確認できるように画像が携帯電話のペアレンタルコントロールセクションに保存される。13~17歳の子どもにも警告は表示されるが、親への通知はない。 この機能は子どもたちを虐待から守ることを目的として