インテルのバイスプレジデントのロジャー・チャンドラーによると、このソフトウェアは、ゲーム内のボイスチャットから、有害なスピーチを検出し除去するために設計されたという。
インテルが公開したソフトウェアのイメージによると、このツールは、「障害者差別」や「容貌批判」「攻撃的発言」「LGBTQ+ヘイト」「ミソジニー」「女性蔑視」「Nワード」「白人至上主義」などの問題発言を、カテゴリごとに分類する。さらに、ユーザーは、それらのカテゴリの言葉を聴く頻度を「なし」「一部」「ほとんど」「すべて」の4段階から、スライドバーで選択可能になっている。
インテルのゲーミング・ソリューション部門のキム・パリスターは、フォーブスの取材に、このスライドバーは、様々な状況に対応するために開発者が構想したものだと述べ、「ユーザーは、友人とだけゲームをプレイする場合には、より寛容なスピーチ・オプションを望むかもしれない。ゲーム内の音声が攻撃的であってもユーザーが聞きたいゲームがあるかもしれない」と話した。
パラリスターは、今回発表された設定は初期のプロトタイプであり、いくつかのカテゴリをスライド式から単純なオン・オフのオプションに変更する可能性を示唆した。インテルが2019年に開発中であることを発表したBleepは、ゲーム内の有害な発言を検知するテクノロジーで知られるSpirit AIと共同で開発された。
ニュースサイトKotakuの記者のLuke Plunkettは4月7日、Bleepのテクノロジーを批判し、「ヘイトスピーチは、教育によって排除されるべきものであり、設定画面のスライドバーで対処すべきことではない」と述べた。
インテルのゲーミングおよびeスポーツ部門を統括するマーカス・ケネディは、フォーブスの取材に対し、このソフトが受けた批判について次のように述べている。
「このソフトに批判の声があがるのは予想していた。しかし、我々の考えでは、ゲーマーたちをエンパワーし続けることは正しいことであり、どのような反発を受けようとも、その試みを続けていく」