偏好优化DPO(Direct Preference Optimization):全家桶系列模型合集下载(附上网盘下载地址)

**直接偏好优化(DPO)**是一种将文本到图像的Stable Diffusion扩散模型与人类文本偏好对齐的方法。它通过直接优化基于人类比较的数据来调整模型,使其更好地符合人类的偏好。DPO 擅长通过对模型进行微调,将模拟人类偏好的数据有效地整合进模型中,从而提升生成结果的质量和相关性。

模型列表

ClearVAE_V2.3_fp16.safetensors
sd_v15_dpo_lora_v1.safetensors
sd_v15_unet_dpo_offset_v1.safetensors
sd_xl_dpo_lora_v1.safetensors
sd_xl_unet_dpo_offset_v1.safetensors

效果预览

下载内容预览与下载地址👇

下载地址此资源仅限注册用户下载,请先
积分奖励:邀请注册1积分,新用户1积分,签到奖励0.5积分

发表评论

error: Content is protected !!