File size: 16,172 Bytes
72a5beb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
"""
FramePack-eichi FP8最適化モジュール
モデルを8ビット浮動小数点形式に量子化して、メモリ使用量と処理速度を最適化するモジュールです。
FramePack-LoRAReadyから移植されています。

基本的な特徴:
- E4M3およびE5M2 FP8フォーマットのサポート
- 異なるGPUアーキテクチャに対する最適化
- モンキーパッチによる透過的な統合
- RTX 40シリーズ向けのscaled_mm最適化対応
"""

import os
import torch

# 警告メッセージが表示されたかを追跡するフラグ
FP8_E4M3_WARNING_SHOWN = False
FP8_DIMENSIONS_WARNING_SHOWN = False
import torch.nn as nn
import torch.nn.functional as F
from tqdm import tqdm

# 国際化対応
from locales.i18n_extended import translate

def calculate_fp8_maxval(exp_bits=4, mantissa_bits=3, sign_bits=1):
    """
    FP8形式で表現可能な最大値を計算
    デフォルトはE4M3形式(4ビット指数部、3ビット仮数部、1ビット符号部)

    Args:
        exp_bits (int): 指数部のビット数
        mantissa_bits (int): 仮数部のビット数
        sign_bits (int): 符号部のビット数(0または1)

    Returns:
        float: FP8形式で表現可能な最大値
    """
    assert exp_bits + mantissa_bits + sign_bits == 8, translate("合計ビット数は8でなければなりません")

    # 指数バイアスを計算
    bias = 2 ** (exp_bits - 1) - 1

    # 最大仮数値を計算
    mantissa_max = 1.0
    for i in range(mantissa_bits - 1):
        mantissa_max += 2 ** -(i + 1)

    # 最大値を計算
    max_value = mantissa_max * (2 ** (2**exp_bits - 1 - bias))

    return max_value

def quantize_tensor_to_fp8(tensor, scale, exp_bits=4, mantissa_bits=3, sign_bits=1, max_value=None, min_value=None):
    """
    テンソルをFP8形式に量子化する

    Args:
        tensor (torch.Tensor): 量子化するテンソル
        scale (float or torch.Tensor): スケールファクター
        exp_bits (int): 指数部のビット数
        mantissa_bits (int): 仮数部のビット数
        sign_bits (int): 符号部のビット数
        max_value (float, optional): 最大値(Noneの場合は自動計算)
        min_value (float, optional): 最小値(Noneの場合は自動計算)

    Returns:
        tuple: (量子化されたテンソル, スケールファクター)
    """
    # スケーリングされたテンソルを作成
    scaled_tensor = tensor / scale

    # FP8パラメータを計算
    bias = 2 ** (exp_bits - 1) - 1

    if max_value is None:
        # 最大値と最小値を計算
        max_value = calculate_fp8_maxval(exp_bits, mantissa_bits, sign_bits)
        min_value = -max_value if sign_bits > 0 else 0.0

    # テンソルを範囲内に制限
    clamped_tensor = torch.clamp(scaled_tensor, min_value, max_value)

    # 量子化プロセス
    abs_values = torch.abs(clamped_tensor)
    nonzero_mask = abs_values > 0

    # logFスケールを計算(非ゼロ要素のみ)
    log_scales = torch.zeros_like(clamped_tensor)
    if nonzero_mask.any():
        log_scales[nonzero_mask] = torch.floor(torch.log2(abs_values[nonzero_mask]) + bias).detach()

    # logスケールを制限し、量子化係数を計算
    log_scales = torch.clamp(log_scales, min=1.0)
    quant_factor = 2.0 ** (log_scales - mantissa_bits - bias)

    # 量子化と逆量子化
    quantized = torch.round(clamped_tensor / quant_factor) * quant_factor

    return quantized, scale

def optimize_state_dict_with_fp8_on_the_fly(
    model_files,
    calc_device,
    target_layer_keys=None,
    exclude_layer_keys=None,
    exp_bits=4,
    mantissa_bits=3,
    move_to_device=False,
    weight_hook=None,
):
    """
    モデルの状態辞書内の線形レイヤーの重みをFP8形式に最適化

    Args:
        model_files (list): 最適化するモデルファイルのリスト(読み込みながら更新)
        calc_device (str): テンソルを量子化するデバイス
        target_layer_keys (list, optional): 対象とするレイヤーキーのパターン(Noneの場合はすべての線形レイヤー)
        exclude_layer_keys (list, optional): 除外するレイヤーキーのパターン
        exp_bits (int): 指数部のビット数
        mantissa_bits (int): 仮数部のビット数
        move_to_device (bool): 最適化されたテンソルを計算デバイスに移動するかどうか
        weight_hook (callable, optional): 重みのフック関数(Noneの場合は使用しない)、FP8最適化前に、FP8最適化の有無に関係なくすべての重みに適用される。

    Returns:
        dict: FP8最適化された状態辞書
    """
    # FP8データ型の選択
    if exp_bits == 4 and mantissa_bits == 3:
        fp8_dtype = torch.float8_e4m3fn
    elif exp_bits == 5 and mantissa_bits == 2:
        fp8_dtype = torch.float8_e5m2
    else:
        raise ValueError(translate("サポートされていないFP8形式: E{0}M{1}").format(exp_bits, mantissa_bits))

    # FP8の最大値を計算
    max_value = calculate_fp8_maxval(exp_bits, mantissa_bits)
    min_value = -max_value  # この関数は符号付きFP8のみサポート

    # 最適化された状態辞書を作成する

    def is_target_key(key):
        # 重みキーが対象パターンに一致し、除外パターンに一致しないかを確認
        is_target = (target_layer_keys is None or any(pattern in key for pattern in target_layer_keys)) and key.endswith(".weight")
        is_excluded = exclude_layer_keys is not None and any(pattern in key for pattern in exclude_layer_keys)
        is_target = is_target and not is_excluded
        return is_target

    # 最適化されたレイヤーのカウンター
    optimized_count = 0
    
    # それぞれのモデルファイルを処理        
    from lora_utils.safetensors_utils import MemoryEfficientSafeOpen

    state_dict = {}
    for model_file in model_files:
        with MemoryEfficientSafeOpen(model_file) as f:
            keys = f.keys()
            for key in tqdm(keys, desc=f"Loading {os.path.basename(model_file)}", unit="key"):
                value = f.get_tensor(key)
                if weight_hook is not None:
                    # 重みフックが指定されている場合、フックを適用
                    value = weight_hook(key, value)

                if not is_target_key(key):
                    state_dict[key] = value
                    continue

                # 元のデバイスとデータ型を保存
                original_device = value.device
                original_dtype = value.dtype

                # 計算デバイスに移動
                if calc_device is not None:
                    value = value.to(calc_device)

                # スケールファクターを計算
                scale = torch.max(torch.abs(value.flatten())) / max_value

                # 重みをFP8に量子化
                quantized_weight, _ = quantize_tensor_to_fp8(value, scale, exp_bits, mantissa_bits, 1, max_value, min_value)

                # 重みに元のキー、スケールに新しいキーを使用
                fp8_key = key
                scale_key = key.replace(".weight", ".scale_weight")

                # FP8データ型に変換
                quantized_weight = quantized_weight.to(fp8_dtype)

                # デバイスの指定がない場合は元のデバイスに戻す
                if not move_to_device:
                    quantized_weight = quantized_weight.to(original_device)

                # スケールテンソルを作成
                scale_tensor = torch.tensor([scale], dtype=original_dtype, device=quantized_weight.device)

                # 状態辞書に追加
                state_dict[fp8_key] = quantized_weight
                state_dict[scale_key] = scale_tensor

                optimized_count += 1

                # 計算デバイスのメモリを定期的に解放
                if calc_device is not None  and optimized_count % 10 == 0:
                    torch.cuda.empty_cache()

    print(translate("最適化された線形レイヤー数: {0}").format(optimized_count))
    return state_dict

def fp8_linear_forward_patch(self: nn.Linear, x, use_scaled_mm=False, max_value=None):
    """
    FP8重みを持つ線形レイヤー用のパッチ適用済みフォワードメソッド

    Args:
        self: 線形レイヤーのインスタンス
        x (torch.Tensor): 入力テンソル
        use_scaled_mm (bool): FP8線形レイヤーに scaled_mm を使用するかどうか(SM 8.9+、RTX 40シリーズが必要)
        max_value (float): FP8量子化の最大値(Noneの場合、入力テンソルに量子化は適用されない)

    Returns:
        torch.Tensor: 線形変換の結果
    """
    if use_scaled_mm:
        # scaled_mmを使用する場合(RTX 40シリーズのGPUでのみ動作)
        input_dtype = x.dtype
        original_weight_dtype = self.scale_weight.dtype
        weight_dtype = self.weight.dtype
        target_dtype = torch.float8_e5m2

        # E4M3FNでない場合は通常方式にフォールバック
        # scaled_mmはFP8でもE4M3FN形式のみ対応しているため、他の形式では使用不可
        global FP8_E4M3_WARNING_SHOWN
        if weight_dtype != torch.float8_e4m3fn:
            if not FP8_E4M3_WARNING_SHOWN:
                print(translate("警告: scaled_mmはFP8 E4M3FN形式を必要としますが、{weight_dtype}が検出されました。通常方式にフォールバックします。").format(weight_dtype=weight_dtype))
                FP8_E4M3_WARNING_SHOWN = True
            # 通常の方式にフォールバック
            return fp8_linear_forward_patch(self, x, False, max_value)

        # 入力テンソルの次元チェック
        # scaled_mmは3次元テンソル(batch_size, seq_len, hidden_dim)を想定しているため、それ以外では機能しない
        global FP8_DIMENSIONS_WARNING_SHOWN
        if x.ndim != 3:
            if not FP8_DIMENSIONS_WARNING_SHOWN:
                print(translate("警告: scaled_mmは3次元入力が必要ですが、{0}次元が検出されました。通常方式にフォールバックします。").format(x.ndim))
                FP8_DIMENSIONS_WARNING_SHOWN = True
            # 通常の方式にフォールバック
            return fp8_linear_forward_patch(self, x, False, max_value)

        if max_value is None:
            # 入力の量子化なし
            scale_x = torch.tensor(1.0, dtype=torch.float32, device=x.device)
        else:
            # 入力テンソルのスケールファクターを計算
            scale_x = (torch.max(torch.abs(x.flatten())) / max_value).to(torch.float32)

            # 入力テンソルをFP8に量子化(メモリを大量に消費する可能性あり)
            x, _ = quantize_tensor_to_fp8(x, scale_x, 5, 2, 1, max_value, -max_value)

        # テンソルの形状を変換
        original_shape = x.shape
        x = x.reshape(-1, x.shape[2]).to(target_dtype)

        # 重みを転置
        weight = self.weight.t()
        scale_weight = self.scale_weight.to(torch.float32)

        # scaled_mmを使用して計算(バイアス有無で処理を分ける)
        if self.bias is not None:
            # バイアスがある場合、float32はサポートされていません
            o = torch._scaled_mm(x, weight, out_dtype=original_weight_dtype, bias=self.bias, scale_a=scale_x, scale_b=scale_weight)
        else:
            o = torch._scaled_mm(x, weight, out_dtype=input_dtype, scale_a=scale_x, scale_b=scale_weight)

        # 元の形状に戻して返す
        return o.reshape(original_shape[0], original_shape[1], -1).to(input_dtype)
    else:
        # 通常の方式(重みを逆量子化して計算)
        original_dtype = self.scale_weight.dtype
        dequantized_weight = self.weight.to(original_dtype) * self.scale_weight

        # 線形変換を実行
        if self.bias is not None:
            output = F.linear(x, dequantized_weight, self.bias)
        else:
            output = F.linear(x, dequantized_weight)

        return output

def apply_fp8_monkey_patch(model, optimized_state_dict, use_scaled_mm=False):
    """
    FP8最適化された状態辞書を使用してモデルにモンキーパッチを適用

    Args:
        model (nn.Module): パッチを適用するモデルインスタンス
        optimized_state_dict (dict): FP8最適化された状態辞書
        use_scaled_mm (bool): FP8線形レイヤーに scaled_mm を使用するかどうか(SM 8.9+、RTX 40シリーズが必要)

    Returns:
        nn.Module: パッチが適用されたモデル(同じインスタンスをインプレースで修正)
    """
    # 入力テンソルの量子化には使用しない(デフォルト)
    max_value = None

    # スケールキーを見つけてFP8最適化されたレイヤーを特定
    scale_keys = [k for k in optimized_state_dict.keys() if k.endswith(".scale_weight")]

    # パッチ適用済みモジュールのパスを設定
    patched_module_paths = set()
    for scale_key in scale_keys:
        # スケールキーからモジュールパスを抽出(".scale_weight"を削除)
        module_path = scale_key.rsplit(".scale_weight", 1)[0]
        patched_module_paths.add(module_path)

    patched_count = 0

    # FP8重みを持つ各レイヤーにモンキーパッチを適用
    for name, module in model.named_modules():
        # このモジュールに対応するスケール重みがあるかチェック
        has_scale = name in patched_module_paths

        # FP8スケールを持つ線形レイヤーにパッチを適用
        if isinstance(module, nn.Linear) and has_scale:
            # スケール重みをバッファとして登録(状態辞書をロードするため)
            module.register_buffer("scale_weight", torch.tensor(1.0, dtype=module.weight.dtype))

            # パッチ適用済みのフォワードメソッドを作成
            def new_forward(self, x):
                return fp8_linear_forward_patch(self, x, use_scaled_mm, max_value)

            # メソッドをモジュールにバインド
            module.forward = new_forward.__get__(module, type(module))

            patched_count += 1

    print(translate("モンキーパッチ適用済みの線形レイヤー数: {0}").format(patched_count))
    # モデルにFP8適用済みフラグを設定
    model._fp8_optimized = True
    return model

def check_fp8_support():
    """
    FP8サポートをチェックする関数

    Returns:
        tuple: (E4M3サポート, E5M2サポート, scaled_mmサポート)
    """
    # FP8サポートのチェック
    has_e4m3 = hasattr(torch, 'float8_e4m3fn')
    has_e5m2 = hasattr(torch, 'float8_e5m2')

    # scaled_mm サポートのチェック
    has_scaled_mm = hasattr(torch, '_scaled_mm')

    if has_e4m3 and has_e5m2:
        if has_scaled_mm:
            print(translate("RTX 40シリーズのGPUでFP8の高速化が可能です"))
    else:
        print(translate("警告: FP8サポートが検出されませんでした。PyTorch 2.1以上が必要です"))

    return has_e4m3, has_e5m2, has_scaled_mm

def reset_fp8_warning_flags():
    """
    FP8警告フラグをリセットする関数
    各生成処理の開始時に呼び出すことで、生成ごとに警告を表示できるようにする
    """
    global FP8_E4M3_WARNING_SHOWN, FP8_DIMENSIONS_WARNING_SHOWN
    FP8_E4M3_WARNING_SHOWN = False
    FP8_DIMENSIONS_WARNING_SHOWN = False


def reset_warning_flags():
    """
    警告フラグをリセットする関数(新しい生成プロセスが開始されるたびに呼び出す)
    """
    global FP8_E4M3_WARNING_SHOWN, FP8_DIMENSIONS_WARNING_SHOWN
    FP8_E4M3_WARNING_SHOWN = False
    FP8_DIMENSIONS_WARNING_SHOWN = False