fastchat 支持llama3 & harmbench PAIR攻击支持 llama3

fastchat 一年没发版了,但是代码里是支持 llama3 的,参考这里直接修改pip依赖源码:https:githublm-sysFastChatblobm

fastchat 一年没发版了,但是代码里是支持 llama3 的,参考这里直接修改pip依赖源码:https://github/lm-sys/FastChat/blob/main/fastchat/conversation.py#L164
【搜LLAMA3关键字】只有几处;

其次修改 PAIR_config.yaml,在里面配置llama3模型:

local_llama3_8b_instruct:
  target_model:
    model_name_or_path: 【你自己的模型本地路径】
    use_fast_tokenizer: False
    dtype: bfloat16
    pad_token: <|end_of_text|>
    num_gpus: 1
    use_vllm: True
    fschat_template: llama-3

发布者:admin,转转请注明出处:http://www.yc00.com/web/1754606488a5181683.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信