File size: 2,687 Bytes
72a5beb |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 |
# FramePack-eichi Dynamic Swap LoRA
#
# このモジュールは後方互換性のために残されていますが、
# 実際にはdirect_applicationによるLoRA適用が使用されています。
import os
import torch
import warnings
# 国際化対応
from locales.i18n_extended import translate as _
class DynamicSwapLoRAManager:
"""
この旧式のLoRA管理クラスは後方互換性のために残されていますが、
実際の処理では使用されません。代わりに直接的なLoRA適用が行われます。
"""
def __init__(self):
"""初期化"""
self.is_active = False
self.lora_path = None
self.lora_scale = 0.8
warnings.warn(
_("DynamicSwapLoRAManagerは非推奨です。代わりにlora_loader.load_and_apply_lora()を使用してください。"),
DeprecationWarning,
stacklevel=2
)
def load_lora(self, lora_path, is_diffusers=False):
"""
LoRAファイルをロードする (実際には、パスの記録のみ)
Args:
lora_path: LoRAファイルのパス
is_diffusers: 互換性のために残されたパラメータ(使用されない)
"""
if not os.path.exists(lora_path):
raise FileNotFoundError(_("LoRAファイルが見つかりません: {0}").format(lora_path))
self.lora_path = lora_path
self.is_active = True
print(_("LoRAファイルがロードされました (非推奨インターフェース): {0}").format(lora_path))
print(_("注意: ") + _("DynamicSwapLoRAManagerは非推奨です。代わりにlora_loader.load_and_apply_lora()を使用してください。"))
def set_scale(self, scale):
"""
LoRA適用スケールを設定する
Args:
scale: LoRAの適用強度
"""
self.lora_scale = scale
def install_hooks(self, model):
"""
モデルにLoRAフックをインストールする (実際には、直接適用を行う)
Args:
model: フックをインストールするモデル
"""
# 直接適用モードを使用してLoRAを適用
from .lora_loader import load_and_apply_lora
print(_("警告: DynamicSwapLoRAManagerは非推奨です。直接適用モードにリダイレクトします。"))
load_and_apply_lora(
model,
self.lora_path,
self.lora_scale,
device=torch.device("cuda" if torch.cuda.is_available() else "cpu")
)
print(_("LoRAは直接適用モードで適用されました。"))
|