JAPANESE
Vertex AI チューニング LoRA
バーテックスエーアイチューニングローラ
KOREAN
Vertex AI 튜닝 LoRA
[ボテクス エイアイ ティュニン Loアルエイ]
ハングル読み: 바텟쿠스에아이추닌구로라
解説
Low-Rank Adaptationを使ってGeminiモデルを少量のデータとコストで効率的にファインチューニングする手法。モデルの全パラメータを更新せず低ランク行列のみを学習し、メモリと計算コストを大幅に削減する。
Low-Rank Adaptation을 사용하여 Gemini 모델을 소량의 데이터와 비용으로 효율적으로 파인 튜닝하는 기법이다. 모델의 전체 파라미터를 갱신하지 않고 저랭크 행렬만 학습하여 메모리와 계산 비용을 대폭 삭감한다.
例文
LoRAチューニングで100件の例示データからドメイン特化モデルを2時間で作成した。
LoRA 튜닝으로 100건의 예시 데이터에서 도메인 특화 모델을 2시간 만에 생성했다.