クルトゥーア
Twitter フェイスブック RSS

Riot Games チャットでの暴言をシステムが判別して処罰するシステムをテスト中

TwitCount Button
このエントリーをはてなブックマークに追加
Riot Gamesは、MOBA「League of Legends」で通報があった場合に悪意のある発言をしたプレイヤーを自動的に処罰するシステムをテストしていることを明らかにした

lol_playerreformsystem.jpg


Riot Gamesがテストしているのはチャットのログを自動で分析するシステムで、他のプレイヤーから通報されると、チャットログ内の暴言や人種差別、性差別、脅迫といった発言がチェックされ、それをシステムがコミュニティの基準で処罰に値するか自動的に判断し、悪質だと判断されるとゲーム終了後15分以内にプレイヤーに警告が送られるという。
場合によっては2週間から永久的な禁止に至るまで程度に応じた処罰が下される。

なんらかの処罰が下される場合はその時のチャットのログも該当のプレイヤーに送られるとのこと。

北米でのテストが上手く行けば、全ての地域のクライアントに導入されることになる。

New player reform system heads into testing
  • このエントリーをはてなブックマークに追加

どれだけやり取りの流れをパターン化して精巧に作られるか知らないが
こういうのはいくらでも隠語や文字違いができるだけに効果のほどはあまりない気がする
あとは通報されて認定されたらリアルに響くくらいの処罰が理想の管理と抑止力だと思うわ
[ 2015/05/22 19:57 ] [ 編集 ]
同感だわ。
暴言を吐く者が多過ぎ/虚偽の通報が多過ぎてシステムで処理をと思ったのだろうが、最終的な判断を人間がやらないことには誤BANや漏れが出る可能性がある。
全部を人間がやれとは言わない。大げさだがfuckを100連発といった場合は、人間が判断せずとも十分、警告を受けるに値するだろう。問題はその匙加減・閾値だ。

不適切な発言を幾らしようが基本的にリアルに響かないことで、無法地帯になっている側面はあるな。もちろん仮想世界の方で吐き出せているからこそリアルでの犯罪衝動が抑えられている側面もあるのかも知れないけど。
デリケートな問題が山積してるわ。
[ 2015/05/24 13:06 ] [ 編集 ]
民度高いからしゃーない
[ 2015/05/25 14:44 ] [ 編集 ]
一度でも軽い暴言吐いたら警告、次は即2週間とかでいいよ
数とか発言内容とかそうやって区別するから面倒になる
発言した時点でアウトにすりゃ発言できなくなる
[ 2015/05/25 16:27 ] [ 編集 ]
コメントの投稿
個人情報を投稿しないようにお気をつけください
管理人にご用のある方は「管理者にだけ表示を許可する」に必ずチェックを入れてください。もしくは、メールフォームをご利用ください。












管理者にだけ表示を許可する
トラックバック: