Efficient Toxic Content Detection by Bootstrapping and Distilling Large Language Models Authors: Jiang Zhang, Qiong Wu, Yiming Xu, Cheng Cao, Zheng Du, Konstantinos Psounis | Published: 2023-12-13 プロンプティング戦略出力の有害度の算出大規模言語モデル 2023.12.13 2025.04.03 文献データベース
You Only Prompt Once: On the Capabilities of Prompt Learning on Large Language Models to Tackle Toxic Content Authors: Xinlei He, Savvas Zannettou, Yun Shen, Yang Zhang | Published: 2023-08-10 テキストデトキシフィケーションプロンプトリーキング出力の有害度の算出 2023.08.10 2025.04.03 文献データベース
Toxicity Detection with Generative Prompt-based Inference Authors: Yau-Shian Wang, Yingshan Chang | Published: 2022-05-24 プロンプティング戦略出力の有害度の算出大規模言語モデル 2022.05.24 2025.04.03 文献データベース