OpenAI Moderation API

OpenAI Moderation

OpenAI 提供的內容審核 API,對文字進行有害類別標記(仇恨、暴力、性等),常用於 大型語言模型 (大語言模型 / 大模型) 輸入輸出過濾與合規。

詳細解釋

OpenAI Moderation API 可對輸入或輸出文字做多類別審核(hate、hate/threatening、harassment、self-harm、sexual、violence 等),回傳類別與是否違規旗標。常用於 大型語言模型 (大語言模型 / 大模型) 應用的事前輸入過濾與事後輸出檢查,以符合使用政策與合規。與 OpenAI API大型語言模型 (大語言模型 / 大模型)、內容安全相關。

探索更多AI詞彙

查看所有分類,繼續學習AI知識