AI IT用語 韓国語一覧
AI/데이터 IT 용어 일본어 목록
606語収録 / 606개 수록
人工知能(AI)・機械学習・データサイエンスに関するIT用語を収録しています。深層学習・自然言語処理(NLP)・大規模言語モデル(LLM)・RAG・ファインチューニング・プロンプトエンジニアリングなど、AI分野の最新用語を日韓対訳で学べます。
韓国のAI業界は急速に成長しており、NAVER・Kakao・Samsung SDSなどの大手企業がLLM開発を進めています。日本では「機械学習」と呼ぶ概念を、韓国では「머신러닝(モシンロニン)」と英語借用語で表現することが多く、日韓間でIT用語の表現方法に違いがあります。例えば「過学習」は韓国語で「과적합(クァジョクァプ)」と漢字語で表し、「深層学習」は「딥러닝(ティプロニン)」と英語借用語を使います。
AI分野は新しい用語が日々生まれる分野です。本辞書では基礎的な機械学習用語から、2024〜2025年に登場した最新のLLM・生成AI関連用語まで幅広くカバーし、日韓のAIエンジニア間のコミュニケーションを支援します。
인공지능(AI)·머신러닝·데이터 사이언스 관련 IT 용어를 수록하고 있습니다. 딥러닝·자연어 처리(NLP)·대규모 언어 모델(LLM)·RAG·파인튜닝·프롬프트 엔지니어링 등 AI 분야의 최신 용어를 한일 대역으로 학습할 수 있습니다.
일본의 AI 업계에서는 한국과 다른 용어 표현을 사용하는 경우가 많습니다. 예를 들어 한국에서 「머신러닝」이라고 하는 것을 일본에서는 「機械学習(키카이가쿠슈우)」라는 한자어로 표현합니다. 또한 「과적합」은 일본어로 「過学習(카가쿠슈우)」이고, 「딥러닝」은 「深層学習(신소우가쿠슈우)」입니다.
AI 분야는 새로운 용어가 매일 생겨나는 분야입니다. 본 사전에서는 기초적인 머신러닝 용어부터 2024~2025년에 등장한 최신 LLM·생성 AI 관련 용어까지 폭넓게 수록하여, 일본 IT 기업에서 AI 관련 업무를 수행하는 한국인 개발자를 지원합니다.
機械学習モデルを学習環境から本番環境へ移行し、実際のサービスやAPIとして利用可能な状態にするプロセス。MLOpsの中核的な工程の一つ。
머신러닝 모델을 학습 환경에서 프로덕션 환경으로 이전하여 실제 서비스나 API로 활용 가능한 상태로 만드는 프로세스. MLOps의 핵심 공정 중 하나.
学習済みモデルから特定のデータの影響を選択的に除去する技術。個人情報やライセンス違反のデータを再学習なしでモデルから忘れさせることができ、プライバシー対応に重要な手法として注目される。
학습된 모델에서 특정 데이터의 영향을 선택적으로 제거하는 기술이다. 개인 정보나 라이선스 위반 데이터를 재학습 없이 모델에서 잊게 할 수 있어 프라이버시 대응에 중요한 기법이다.
ユーザーの過去の行動履歴、嗜好、コンテキストに基づいてAIの応答やコンテンツを個別最適化する技術。推薦システムやチャットボットのユーザー体験向上に不可欠な要素である。
사용자의 과거 행동 이력, 기호, 컨텍스트에 기반하여 AI의 응답이나 콘텐츠를 개별 최적화하는 기술이다. 추천 시스템이나 챗봇의 사용자 경험 향상에 필수적인 요소이다.
ラベルなしデータからパターンや構造を自動的に発見する機械学習手法。クラスタリングや次元削減、異常検知などに活用される。
레이블이 없는 데이터에서 패턴이나 구조를 자동으로 발견하는 머신러닝 기법. 클러스터링, 차원 축소, 이상 탐지 등에 활용된다.
LLMのトークン生成時に文法規則やスキーマ定義に基づく制約を適用し、常に有効な形式の出力を保証する技術。JSONやSQLなど厳密な構文が求められる出力で特に有効である。
LLM의 토큰 생성 시 문법 규칙이나 스키마 정의에 기반한 제약을 적용하여 항상 유효한 형식의 출력을 보증하는 기술. JSON이나 SQL 등 엄밀한 구문이 요구되는 출력에서 특히 유효하다.
本番環境で稼働するAIモデルの精度・レイテンシ・コストなどを継続的に監視する取り組み。ドリフト検知や異常検知も含まれる。
프로덕션 환경에서 가동 중인 AI 모델의 정확도·레이턴시·비용 등을 지속적으로 감시하는 작업. 드리프트 검지와 이상 탐지도 포함된다.
AIモデルの重みやアクティベーションを低精度の数値形式(INT8など)に変換し、モデルサイズの削減と推論速度の向上を図る最適化技術。
AI 모델의 가중치와 활성화 값을 낮은 정밀도의 수치 형식(INT8 등)으로 변환하여 모델 크기를 줄이고 추론 속도를 향상시키는 최적화 기술.
ニューラルネットワークの各レイヤーの重み行列を複数のGPUに分割して並列計算する手法。単一レイヤーが1つのGPUメモリに収まらない超大規模モデルの学習・推論を可能にする。
신경망의 각 레이어 가중치 행렬을 여러 GPU에 분할하여 병렬 계산하는 기법이다. 단일 레이어가 하나의 GPU 메모리에 맞지 않는 초대규모 모델의 학습·추론을 가능하게 한다.
テキストをLLMが処理できるトークン単位に分割する前処理コンポーネント。BPE、SentencePieceなどのアルゴリズムが使用される。
텍스트를 LLM이 처리할 수 있는 토큰 단위로 분할하는 전처리 컴포넌트. BPE, SentencePiece 등의 알고리즘이 사용된다.
検索された文書の品質を評価し、品質が低い場合にウェブ検索などの代替ソースに自動フォールバックするRAGの改良手法。検索品質の自己評価と動的なソース切り替えが特徴的な拡張手法である。
검색된 문서의 품질을 평가하고 품질이 낮을 경우 웹 검색 등 대체 소스로 자동 폴백하는 RAG의 개량 기법이다. 검색 품질의 자기 평가와 동적 소스 전환이 특징적인 확장 기법이다.
クラウドではなくデバイス側(エッジ)でAI推論処理を行う技術。低遅延・オフライン動作・プライバシー保護の観点から組み込み機器やIoTデバイスへの適用が進んでいる。
클라우드가 아닌 디바이스 측(엣지)에서 AI 추론 처리를 수행하는 기술. 저지연·오프라인 동작·프라이버시 보호 측면에서 임베디드 기기나 IoT 디바이스에 대한 적용이 확산되고 있다.
深層学習。ニューラルネットワークを用いた学習手法。
심층 학습. 신경망을 이용한 학습 기법.
データの収集・活用・共有における倫理的配慮を指す概念。プライバシー保護・公平性・透明性・説明責任などの原則に基づき、AIや分析システムの設計・運用で重視される。
데이터의 수집·활용·공유에서의 윤리적 고려를 의미하는 개념. 프라이버시 보호·공정성·투명성·책임성 등의 원칙에 기반해 AI 및 분석 시스템 설계·운용에서 중시된다.
小さなドラフトモデルで複数トークンを先行生成し、大きなモデルで一括検証する推論高速化手法。品質を維持したまま推論速度を2〜3倍に向上させることができる効率的な生成手法である。
작은 드래프트 모델로 여러 토큰을 선행 생성하고 큰 모델로 일괄 검증하는 추론 고속화 기법이다. 품질을 유지하면서 추론 속도를 2~3배 향상시킬 수 있는 효율적인 생성 기법이다.
AIモデルの脆弱性や有害出力を体系的に発見するためのセキュリティ評価手法。攻撃者の視点からプロンプトインジェクションやジェイルブレイクなどの攻撃を試み、安全性を事前に検証する。
AI 모델의 취약점이나 유해 출력을 체계적으로 발견하기 위한 보안 평가 기법이다. 공격자의 시점에서 프롬프트 인젝션이나 탈옥 등의 공격을 시도하여 안전성을 사전에 검증한다.
長いシステムプロンプトやコンテキスト情報をモデルのパラメータに内在化させ、推論時のトークン消費を削減する技術。繰り返し使用する指示を事前にモデルに焼き込むことで効率化する。
긴 시스템 프롬프트나 컨텍스트 정보를 모델 파라미터에 내재화시켜 추론 시 토큰 소비를 절감하는 기술. 반복 사용하는 지시를 사전에 모델에 주입하여 효율화한다.
OpenAIが開発したTransformerベースの言語モデル構造。デコーダーのみを使用した自己回帰型生成モデルで、大規模テキストの事前学習により高精度な文章生成を実現する。
OpenAI가 개발한 Transformer 기반의 언어 모델 구조. 디코더만을 사용한 자기회귀형 생성 모델로, 대규모 텍스트 사전 학습을 통해 높은 정확도의 문장 생성을 실현한다.
AIエージェントのタスク遂行能力を標準化されたテストで評価する指標体系。ツール使用の正確性・計画能力・エラー回復力など複数の観点で性能を測定し、モデル選定の判断材料となる。
AI 에이전트의 태스크 수행 능력을 표준화된 테스트로 평가하는 지표 체계이다. 도구 사용의 정확성, 계획 능력, 에러 복구력 등 복수의 관점에서 성능을 측정하여 모델 선정의 판단 재료가 된다.
AIモデルの誤判定を意図的に誘発するために入力データに微小な摂動を加える攻撃手法。人間には知覚できないノイズレベルの変化でもモデルの予測を大きく狂わせることができる。
AI 모델의 오판정을 의도적으로 유발하기 위해 입력 데이터에 미세한 섭동을 가하는 공격 기법이다. 인간이 인지할 수 없는 노이즈 수준의 변화로도 모델의 예측을 크게 흐트러뜨릴 수 있다.
キーワードの一致ではなく、文章の意味や文脈を理解して検索結果を返す技術。ベクトル埋め込みやNLPを活用し、より精度の高い検索体験を実現する。
키워드 일치가 아닌 문장의 의미와 문맥을 이해하여 검색 결과를 반환하는 기술. 벡터 임베딩과 NLP를 활용하여 더 높은 정확도의 검색 경험을 실현한다.
エンティティ間の関係性をグラフ構造で表現・管理するデータ基盤の構築手法。RAGやナレッジベースと組み合わせてAI精度向上に活用される。
엔티티 간의 관계를 그래프 구조로 표현·관리하는 데이터 기반 구축 기법. RAG나 지식 베이스와 결합하여 AI 정확도 향상에 활용된다.
Meta社が開発したオープンソースの大規模言語モデル(LLM)。比較的少ないパラメータ数で高い性能を発揮し、商用・研究目的での利用が可能なことで広く普及している。
Meta가 개발한 오픈소스 대규모 언어 모델(LLM). 비교적 적은 파라미터 수로 높은 성능을 발휘하며, 상업적·연구 목적으로 활용 가능해 널리 보급되어 있다.
入力データの中で重要な部分に重みを付けて注目する仕組み。TransformerやBERTなどの大規模言語モデルの基盤技術であり、自然言語処理や画像認識で広く活用される。
입력 데이터에서 중요한 부분에 가중치를 부여하여 집중하는 메커니즘. Transformer나 BERT 등 대규모 언어 모델의 기반 기술로, 자연어 처리 및 이미지 인식 분야에서 널리 활용된다.
全トークン間ではなく一部のトークン間のみアテンションを計算する手法。計算量をO(n²)からO(n√n)程度に削減でき、長い入力系列を効率的に処理するために使用される。
전체 토큰 간이 아닌 일부 토큰 간에만 어텐션을 계산하는 기법이다. 계산량을 O(n²)에서 O(n√n) 정도로 줄일 수 있어 긴 입력 시퀀스를 효율적으로 처리하는 데 사용된다.
学習の進行に応じて学習率を動的に変化させるメカニズム。ウォームアップ後にコサインカーブで減衰させるコサインアニーリングなどが一般的で、学習の収束速度と最終精度に大きく影響する。
학습 진행에 따라 학습률을 동적으로 변화시키는 메커니즘이다. 워밍업 후 코사인 커브로 감쇠시키는 코사인 어닐링 등이 일반적이며 학습 수렴 속도와 최종 정확도에 크게 영향을 미친다.
本番環境の入力データの統計的分布が学習時と変化していないかを継続的に監視する仕組み。データドリフトの早期検出により、モデル精度劣化の原因特定と再学習判断を支援する。
운영 환경의 입력 데이터 통계적 분포가 학습 시와 변화하지 않았는지를 지속적으로 감시하는 구조. 데이터 드리프트의 조기 검출로 모델 정확도 열화의 원인 특정과 재학습 판단을 지원한다.
AIモデルの出力品質を自動的に評価・検証するテスト手法。回帰テスト、A/Bテスト、ベンチマーク評価などを自動化する。
AI 모델의 출력 품질을 자동으로 평가·검증하는 테스트 기법. 회귀 테스트, A/B 테스트, 벤치마크 평가 등을 자동화한다.
画像認識・解析を行うクラウドAPIの総称。Google Cloud Vision APIなどが代表例で、物体検出・OCR・顔認識・ラベル検出などの機能をREST API経由で利用できる。
이미지 인식 및 분석을 수행하는 클라우드 API의 총칭. Google Cloud Vision API 등이 대표적이며, 객체 감지·OCR·얼굴 인식·레이블 감지 등의 기능을 REST API를 통해 활용할 수 있다.
強化学習においてエージェントの行動を評価するための報酬関数を設計・学習するプロセス。RLHFなどでAIの出力品質を人間の好みに合わせるために活用される。
강화학습에서 에이전트의 행동을 평가하기 위한 보상 함수를 설계·학습하는 프로세스. RLHF 등에서 AI 출력 품질을 인간의 선호에 맞추기 위해 활용된다.
長いシステムプロンプトやコンテキスト情報をモデルの重みに蒸留することで、推論時のトークン消費を削減する手法。繰り返し使用する指示を事前に内部化し、レイテンシとコスト削減を実現する。
긴 시스템 프롬프트나 컨텍스트 정보를 모델 가중치에 증류하여 추론 시 토큰 소비를 줄이는 기법이다. 반복 사용하는 지시를 사전에 내재화하여 레이턴시와 비용 절감을 실현한다.
推論時に計算リソースを追加投入して回答品質を向上させるスケーリング手法。思考連鎖の延長や複数回の生成と検証を行い、学習時のスケーリングとは異なるアプローチで性能を高める。
추론 시 계산 리소스를 추가 투입하여 답변 품질을 향상시키는 스케일링 기법이다. 사고 연쇄 연장이나 여러 차례 생성과 검증을 수행하며 학습 시 스케일링과 다른 접근법으로 성능을 높인다.
FP16とFP32を組み合わせてモデルを学習する手法。メモリ使用量を削減しつつ、精度を保ったまま学習速度を向上させるためにGPU環境でよく使われる。
FP16과 FP32를 혼합하여 모델을 학습하는 기법. 메모리 사용량을 줄이면서 정확도를 유지한 채 학습 속도를 향상시키기 위해 GPU 환경에서 자주 활용된다.
画像とテキストを統合的に理解・生成できるマルチモーダルAIモデル。VLMとも呼ばれ、画像キャプション生成や視覚的質問応答(VQA)などに活用される。
이미지와 텍스트를 통합적으로 이해하고 생성할 수 있는 멀티모달 AI 모델. VLM이라고도 불리며, 이미지 캡션 생성이나 시각적 질문 응답(VQA) 등에 활용된다.
AIモデルの安全制約を巧妙なプロンプト操作で回避し、本来制限されたコンテンツを出力させる攻撃手法。プロンプトインジェクションの一種で、継続的な監視と対策が必要である。
AI 모델의 안전 제약을 교묘한 프롬프트 조작으로 우회하여 본래 제한된 콘텐츠를 출력시키는 공격 기법이다. 프롬프트 인젝션의 일종으로, 지속적인 감시와 대책 마련이 요구된다.
AIモデルやデータセットに含まれる統計的・社会的偏りを自動的に特定・測定する手法。性別・人種・年齢などの属性に基づく不公平な予測を事前に防止するために実施される。
AI 모델이나 데이터셋에 포함된 통계적·사회적 편향을 자동으로 식별·측정하는 기법이다. 성별·인종·연령 등의 속성에 기반한 불공정한 예측을 사전에 방지하기 위해 실시된다.
自己注意機構を基盤とするニューラルネットワークアーキテクチャ。GPTやBERTの基盤技術であり、RNNと異なり並列処理が可能なため大規模モデルの学習に適している。
자기 주의 메커니즘을 기반으로 하는 신경망 아키텍처이다. GPT와 BERT의 기반 기술이며, RNN과 달리 병렬 처리가 가능하여 대규모 모델 학습에 적합한 구조이다.
複雑なタスクを自動的にサブタスクに分解し、実行計画を立案・遂行するAIエージェント。目標達成までの手順を動的に調整し、失敗時にはリプランニングを行う能力を持つ。
복잡한 태스크를 자동으로 서브태스크로 분해하고 실행 계획을 수립·수행하는 AI 에이전트. 목표 달성까지의 절차를 동적으로 조정하며, 실패 시 리플래닝을 수행하는 능력을 갖는다.
モデルの予測値と正解値の差異を数値化して学習の進捗を評価する関数。クロスエントロピーやMSEなどの種類があり、この値を最小化する方向にモデルのパラメータを最適化する。
모델의 예측값과 정답값의 차이를 수치화하여 평가하는 함수이다. 크로스 엔트로피나 MSE 등의 종류가 있으며, 이 값을 최소화하는 방향으로 모델의 파라미터를 갱신한다.
複数の学習済みモデルの重みを統合して新しいモデルを作成する手法。異なるタスクに特化したモデルの能力を一つに統合できる。
복수의 학습 완료 모델의 가중치를 통합하여 새로운 모델을 만드는 기법. 서로 다른 태스크에 특화된 모델의 능력을 하나로 통합할 수 있다.
長いドキュメントをベクトル化に適した大きさの断片に分割する前処理工程。RAG構築時の重要なステップであり、固定長・文単位・意味単位など分割の粒度が検索精度に大きく影響する。
긴 문서를 벡터화에 적합한 크기의 조각으로 분할하는 전처리 공정이다. RAG 구축 시 중요한 단계이며, 분할 단위와 방법이 검색 정확도에 큰 영향을 미치게 된다.
異なるモダリティやエンコーダーの出力をクロスアテンション層で統合するマルチモーダル融合手法。画像特徴量とテキスト特徴量を交差注意機構で結合し、モダリティ間の深い相互理解を実現する。
서로 다른 모달리티나 인코더의 출력을 크로스 어텐션 레이어로 통합하는 멀티모달 융합 기법이다. 이미지 특징량과 텍스트 특징량을 교차 주의 기구로 결합하여 모달리티 간 깊은 상호 이해를 실현한다.
機械学習モデルが訓練データに過度に適合し、未知のデータに対して汎化性能が低下する現象。バリアンスが高くなりすぎる状態を指す。
머신러닝 모델이 학습 데이터에 과도하게 적합되어 새로운 데이터에 대한 일반화 성능이 저하되는 현상. 분산이 지나치게 높아진 상태를 의미한다.
AIプロダクトの利用データがモデル改善に活用され、改善がさらなるユーザー増加を促し、より多くのデータが蓄積される好循環のこと。AIプロダクトの競争優位を構築する重要な戦略概念である。
AI 프로덕트의 이용 데이터가 모델 개선에 활용되고 개선이 더 많은 사용자 증가를 촉진하여 더 많은 데이터가 축적되는 선순환을 말한다. AI 프로덕트의 경쟁 우위를 구축하는 중요한 전략 개념이다.
ラベル付けされていないデータから自動的に学習信号を生成して表現を獲得する手法。データの一部をマスクして予測させるなど、データ自体から教師信号を作り出すことで大規模な事前学習を可能にする。
라벨이 없는 데이터에서 자동으로 학습 신호를 생성하여 표현을 획득하는 기법이다. 데이터의 일부를 마스킹하여 예측시키는 등 데이터 자체에서 교사 신호를 만들어 대규모 사전 학습을 가능하게 한다.
AIモデルの学習に使用するデータセットの品質を管理し、不適切なデータの除去やラベルの修正を行う作業。モデル精度に直結する。
AI 모델 학습에 사용하는 데이터셋 품질을 관리하고 부적절한 데이터 제거와 라벨 수정을 수행하는 작업. 모델 정확도에 직결된다.
同一または類似のAI推論リクエストの結果をキャッシュし再利用することでコストとレイテンシを削減する手法。セマンティックキャッシュも含む。
동일하거나 유사한 AI 추론 요청 결과를 캐시하여 재사용함으로써 비용과 레이턴시를 줄이는 기법. 시맨틱 캐시도 포함한다.
モデルサイズ・データ量・計算量をスケールアップするとモデル性能が予測可能な形で対数的に向上するという経験則。LLMの開発戦略の指針となり、大規模モデル競争の理論的根拠となっている。
모델 크기·데이터양·계산량을 늘리면 모델 성능이 예측 가능한 형태로 향상된다는 경험 법칙이다. LLM 개발의 지침이 되며, 대규모 모델 경쟁의 이론적 근거가 된다.
LLMが最終回答の前に内部的な推論プロセスを生成するために使用するトークン。ユーザーには非表示で、複雑な問題の段階的な思考を可能にし、回答の正確性を向上させる。
LLM이 최종 답변 전에 내부적 추론 프로세스를 생성하기 위해 사용하는 토큰이다. 사용자에게는 비표시이며 복잡한 문제의 단계적 사고를 가능하게 하여 답변 정확성을 향상시킨다.
AIシステムが法規制や社内ポリシーに準拠しているかを体系的に検証するプロセス。EU AI法やGDPRなどの規制対応を含み、リスク分類に応じた適合性評価を実施する。
AI 시스템이 법규나 사내 정책에 준거하고 있는지를 체계적으로 검증하는 프로세스. EU AI법이나 GDPR 등의 규제 대응을 포함하며, 리스크 분류에 따른 적합성 평가를 실시한다.
LLMが最終回答を出す前に生成する中間的な推論過程のトークンを可視化する技術。モデルの思考プロセスを追跡・検証することで、出力の信頼性評価やデバッグに役立てる。
LLM이 최종 응답을 내기 전에 생성하는 중간적인 추론 과정의 토큰을 시각화하는 기술이다. 모델의 사고 프로세스를 추적 및 검증하여 출력의 신뢰성 평가나 디버깅에 활용한다.
AIエージェントが外部ツールを呼び出す際の精度と効率を改善する技術。不要なツール呼び出しの削減、パラメータの自動補完、並列実行の最適化などを含む包括的な改善手法である。
AI 에이전트가 외부 도구를 호출할 때의 정확도와 효율을 개선하는 기술이다. 불필요한 도구 호출 삭감, 파라미터 자동 보완, 병렬 실행 최적화 등을 포함하는 포괄적인 개선 기법이다.
llama.cppで使用されるモデルの量子化バイナリフォーマット。CPU推論に最適化され、2〜8ビットの複数量子化レベルをサポートし、ローカル環境でのLLM実行を可能にするファイル形式である。
llama.cpp에서 사용되는 모델의 양자화 바이너리 포맷이다. CPU 추론에 최적화되어 있으며 2~8비트의 복수 양자화 레벨을 지원하고 로컬 환경에서의 LLM 실행을 가능하게 하는 파일 형식이다.
言語モデルの出力確率分布の鋭さを制御するハイパーパラメータ。値が低いほど高確率トークンに集中した決定的な出力となり、値が高いほどランダム性が増して創造的な出力が生成される。
언어 모델의 출력 확률 분포의 날카로움을 제어하는 하이퍼파라미터이다. 값이 낮을수록 고확률 토큰에 집중된 결정적 출력이 되고, 높을수록 무작위성이 증가하여 창의적인 출력이 생성된다.
ユーザーの行動履歴や嗜好の類似性をもとに、他ユーザーのデータを活用してレコメンドを行う手法。ECサイトや動画配信サービスの推薦エンジンで広く使われる。
사용자의 행동 이력 및 선호도 유사성을 바탕으로 다른 사용자 데이터를 활용해 추천을 제공하는 기법. 이커머스나 동영상 스트리밍 서비스의 추천 엔진에서 널리 사용된다.
AIシステムの内部状態をトレース・メトリクス・ログで可視化し、問題の迅速な特定と解決を可能にする運用手法。
AI 시스템의 내부 상태를 트레이스·메트릭스·로그로 가시화하여 문제의 신속한 파악과 해결을 가능하게 하는 운영 기법.
大規模モデルの学習時にメモリ使用量を削減する手法。順伝播の中間活性化値を一部破棄し、逆伝播時に再計算することでGPUメモリを節約する。
대규모 모델 학습 시 메모리 사용량을 줄이는 기법. 순전파의 중간 활성화 값을 일부 버리고, 역전파 시 재계산하여 GPU 메모리를 절약한다.
複数のファインチューニング済みモデルのパラメータを数学的に統合し、各モデルの強みを兼ね備えた新モデルを作成する手法。追加学習なしで多能力モデルを構築できる利点がある。
여러 파인튜닝된 모델의 파라미터를 수학적으로 통합하여 각 모델의 강점을 겸비한 새 모델을 만드는 기법. 추가 학습 없이 다능력 모델을 구축할 수 있는 이점이 있다.
テキストや画像などの条件情報を入力として与え、その条件に合致した出力を生成するAI手法。テキストから画像を生成するText-to-Imageや、クラスラベルに基づく画像生成などが代表例である。
텍스트나 이미지 등의 조건 정보를 입력으로 주어 그 조건에 부합하는 출력을 생성하는 AI 기법이다. 텍스트에서 이미지를 생성하는 Text-to-Image나 클래스 라벨 기반 이미지 생성 등이 대표적이다.
人間の音声をテキストや命令に変換する技術。ASRとも呼ばれ、音声アシスタントや文字起こしツール、コールセンター自動化などに広く活用される。
사람의 음성을 텍스트나 명령으로 변환하는 기술. ASR이라고도 불리며, 음성 어시스턴트, 자동 전사 도구, 콜센터 자동화 등에 널리 활용된다.
LLM推論サーバーで到着するリクエストを動的にバッチ化して処理する技術。Continuous BatchingやIterative Batchingにより、GPUの利用率を最大化しスループットを向上させる。
LLM 추론 서버에서 도착하는 요청을 동적으로 배치화하여 처리하는 기술이다. Continuous Batching이나 Iterative Batching을 통해 GPU 이용률을 최대화하고 처리량을 향상시키는 기법이다.
大規模言語モデルを効率的にファインチューニングする手法。Low-Rank Adaptationの略で、少ないパラメータ数で特定タスクへの適応が可能。計算コストを大幅に削減できる。
대규모 언어 모델을 효율적으로 파인튜닝하는 기법. Low-Rank Adaptation의 약자로, 적은 파라미터 수로 특정 태스크에 적응이 가능하며 계산 비용을 크게 절감할 수 있다.
自然言語の質問をSQLクエリに自動変換するAIモデル。データベースのスキーマ情報を理解し、非技術者でもデータ分析を行えるようにすることで、BIの民主化を促進する。
자연어 질문을 SQL 쿼리로 자동 변환하는 AI 모델. 데이터베이스 스키마 정보를 이해하여 비기술자도 데이터 분석을 수행할 수 있게 함으로써 BI의 민주화를 촉진한다.
自己注意機構(Self-Attention)を用いたニューラルネットワーク構造。GPTやBERTなど大規模言語モデルの基盤技術であり、自然言語処理の精度を飛躍的に向上させた。
자기 주의 메커니즘(Self-Attention)을 활용한 신경망 구조. GPT, BERT 등 대규모 언어 모델의 핵심 기반 기술로, 자연어 처리 정확도를 획기적으로 향상시켰다.
自然言語処理を中心に広く使われるディープラーニングアーキテクチャ。Self-Attentionメカニズムを採用し、GPTやBERTなど大規模言語モデルの基盤技術となっている。
자연어 처리를 중심으로 널리 사용되는 딥러닝 아키텍처. Self-Attention 메커니즘을 채택하여 GPT, BERT 등 대규모 언어 모델의 기반 기술로 활용된다.
少量のラベル付きデータと大量のラベルなしデータを組み合わせてモデルを訓練する機械学習手法。アノテーションコスト削減に有効。
소량의 레이블된 데이터와 대량의 레이블 없는 데이터를 결합하여 모델을 학습시키는 머신러닝 기법으로, 어노테이션 비용 절감에 효과적이다.
プロンプトの表現が多少変化しても一貫した出力を維持するLLMの特性。表記揺れや言い回しの違いに対する耐性を体系的に評価し、プロダクション環境での安定性を保証する指標である。
프롬프트 표현이 다소 변화해도 일관된 출력을 유지하는 LLM의 특성이다. 표기 흔들림이나 표현 차이에 대한 내성을 체계적으로 평가하여 프로덕션 환경에서의 안정성을 보장하는 지표이다.
プロンプトインジェクションやジェイルブレイクからLLMアプリを保護する防御レイヤー。入力の前処理で悪意あるプロンプトを検知・フィルタリングし、モデルの安全な動作を保証する仕組みである。
프롬프트 인젝션이나 탈옥으로부터 LLM 앱을 보호하는 방어 레이어이다. 입력 전처리에서 악의적인 프롬프트를 탐지·필터링하여 모델의 안전한 동작을 보장하는 구조이다.
AIエージェントが過去のインタラクションや学習した情報を保存・検索するための永続的な記憶機構。短期メモリと長期メモリを組み合わせ、文脈に応じた情報の想起と活用を行う仕組みである。
AI 에이전트가 과거의 인터랙션이나 학습한 정보를 저장·검색하기 위한 영속적 기억 기구이다. 단기 메모리와 장기 메모리를 조합하여 문맥에 맞는 정보의 상기와 활용을 수행하는 구조이다.
AIが自分自身と対戦・対話することで能力を向上させる学習手法。人間のデータに依存せず、自己対局から生成したデータで反復的に改善する。AlphaGoなどで大きな成果を上げた。
AI가 자기 자신과 대전·대화하면서 능력을 향상시키는 학습 기법이다. 인간 데이터에 의존하지 않고 자기 대국에서 생성한 데이터로 반복적으로 개선한다. AlphaGo 등에서 큰 성과를 거뒀다.
入力内容の複雑さやタスク種別に応じて、最適なAIモデルを自動選択して処理を振り分ける技術。コスト効率と応答品質のバランスを動的に最適化し、運用コストを大幅に削減する。
입력 내용의 복잡도나 태스크 종류에 따라 최적의 AI 모델을 자동 선택하여 처리를 분배하는 기술. 비용 효율과 응답 품질의 균형을 동적으로 최적화하여 운영 비용을 대폭 절감한다.
モデル本体のパラメータを固定し、入力の先頭に学習可能な仮想トークン(プレフィックス)を追加してタスクに適応させる手法。LoRAと同様にパラメータ効率の高いファインチューニング手法の一つである。
모델 본체의 파라미터를 고정하고 입력 앞에 학습 가능한 가상 토큰(프리픽스)을 추가하여 태스크에 적응시키는 기법이다. LoRA와 마찬가지로 파라미터 효율이 높은 파인튜닝 기법 중 하나이다.
LLMが複雑な問題を段階的に分解して推論するプロンプト手法。Chain-of-Thought(CoT)とも呼ばれ、思考ステップを明示することで回答精度が向上する。
LLM이 복잡한 문제를 단계적으로 분해하여 추론하는 프롬프트 기법. Chain-of-Thought(CoT)라고도 하며, 사고 단계를 명시함으로써 답변 정확도가 향상된다.
LangChainが提供する、LLMアプリケーションのデバッグ、テスト、評価、監視を行うためのプラットフォーム。プロンプトチェーンの実行過程を可視化する。
LangChain이 제공하는 LLM 애플리케이션 디버깅, 테스트, 평가, 모니터링 플랫폼. 프롬프트 체인의 실행 과정을 시각화한다.
Root Mean Squareのみで正規化を行う軽量な手法で、LayerNormから平均の減算を省略している。計算コストを削減しつつ同等以上の学習安定性を提供するため、最新のLLMアーキテクチャで広く使われている。
Root Mean Square만으로 정규화를 수행하는 경량 기법으로, LayerNorm에서 평균 감산을 생략했다. 계산 비용을 줄이면서 동등 이상의 학습 안정성을 제공하여 최신 LLM 아키텍처에서 널리 사용되고 있다.
小型モデルで複数トークンを先行予測し、大型モデルで一括検証することでLLMの推論速度を高速化する手法。出力品質を維持しながらレイテンシーを大幅に削減できる点が大きな利点である。
소형 모델로 여러 토큰을 선행 예측하고 대형 모델로 일괄 검증하여 LLM의 추론 속도를 고속화하는 기법. 출력 품질을 유지하면서 레이턴시를 대폭 절감할 수 있다는 점이 큰 장점이다.
AIモデルの重みや演算を低精度(INT8など)に変換し、推論速度の向上とメモリ使用量の削減を図る最適化手法。エッジデバイスへのデプロイに有効。
AI 모델의 가중치와 연산을 낮은 정밀도(INT8 등)로 변환하여 추론 속도를 높이고 메모리 사용량을 줄이는 최적화 기법. 엣지 디바이스 배포에 효과적.
AIシステムの開発・運用における倫理・法令・リスク管理の枠組み。透明性・公平性・説明責任を確保し、組織全体でAIを適切に管理するための方針や体制を指す。
AI 시스템의 개발 및 운영에 있어 윤리·법령·리스크 관리의 틀. 투명성·공정성·책임성을 확보하고, 조직 전체에서 AI를 적절히 관리하기 위한 방침과 체계를 말한다.
音声データをテキストに変換するAIモデル。WhisperやGoogle Speech-to-Textなどが代表例で、自然言語処理と組み合わせて音声アシスタントや文字起こしシステムに活用される。
음성 데이터를 텍스트로 변환하는 AI 모델. Whisper나 Google Speech-to-Text 등이 대표적인 예로, 자연어 처리와 결합하여 음성 어시스턴트나 자막 생성 시스템에 활용된다.
本番環境にデプロイしたMLモデルの予測精度・データドリフト・レイテンシなどを継続的に監視し、モデルの劣化や異常を早期に検知するプロセス。
프로덕션 환경에 배포된 ML 모델의 예측 정확도·데이터 드리프트·레이턴시 등을 지속적으로 모니터링하여 모델 성능 저하나 이상을 조기에 감지하는 프로세스.
自然言語の指示に正確に従えるようモデルを追加学習させる手法。指示と期待される出力のペアデータで学習し、ベースモデルに汎用的な対話能力や指示遂行能力を獲得させる。
자연어 지시를 정확하게 따를 수 있도록 모델을 추가 학습시키는 기법이다. 지시와 기대 출력의 페어 데이터로 학습하여, 베이스 모델에 범용적인 대화 능력과 지시 수행 능력을 부여한다.
LLMが外部APIや関数を自律的に呼び出す仕組み。Function Callingとも呼ばれ、AIエージェントが検索・計算・DB参照などを実行できるようにする。
LLM이 외부 API나 함수를 자율적으로 호출하는 방식. Function Calling이라고도 하며, AI 에이전트가 검색·계산·DB 조회 등을 실행할 수 있게 한다.
システムやデータの通常パターンから逸脱した異常な挙動を自動的に検出する技術。機械学習やルールベースの手法が用いられ、障害予測やセキュリティ監視に活用される。
시스템이나 데이터의 정상 패턴에서 벗어난 이상 동작을 자동으로 탐지하는 기술. 머신러닝이나 규칙 기반 방법이 사용되며, 장애 예측 및 보안 모니터링에 활용된다.
ニューラルネットワークの過学習を防ぐ正則化手法。学習時にランダムにニューロンを一定割合で無効化することで、モデルの汎化性能を向上させる技術。
신경망의 과적합을 방지하는 정규화 기법. 학습 시 무작위로 뉴런을 일정 비율로 비활성화하여 모델의 일반화 성능을 향상시키는 기술.
AIが事実と異なる情報を、あたかも正確であるかのように自信を持って生成してしまう現象。LLMの信頼性評価や本番導入時の重大なリスク要因となる。
AI가 사실과 다른 정보를 마치 정확한 것처럼 자신 있게 생성하는 현상. LLM의 신뢰성 평가 및 프로덕션 도입 시 중요한 리스크 요인이 된다.
ニューラルネットワークが入力データの重要な部分に選択的に「注意」を向ける仕組み。TransformerやBERTなど現代の大規模言語モデルの基盤技術。
신경망이 입력 데이터의 중요한 부분에 선택적으로 '주의'를 집중하는 메커니즘. Transformer나 BERT 등 현대 대규모 언어 모델의 핵심 기반 기술.
Generator(生成器)とDiscriminator(識別器)が競い合うことで高精度なデータを生成するGANの仕組み。画像生成・データ拡張などに活用される敵対的生成ネットワーク。
Generator(생성기)와 Discriminator(판별기)가 경쟁하며 고정밀 데이터를 생성하는 GAN 구조. 이미지 생성·데이터 증강 등에 활용되는 적대적 생성 신경망이다.
事前学習済みモデルを特定のタスクや業務データで追加学習させ、精度を最適化する手法。LLMや画像認識モデルのカスタマイズに広く活用される。
사전 학습된 모델을 특정 태스크나 업무 데이터로 추가 학습시켜 정확도를 최적화하는 기법. LLM 및 이미지 인식 모델 커스터마이징에 널리 활용된다.
データからパターンを学習し、予測や分類を行うAIの一分野。教師あり・なし学習、強化学習などの手法があり、現在多くのサービスに組み込まれている。
데이터에서 패턴을 학습하여 예측이나 분류를 수행하는 AI의 한 분야. 지도학습·비지도학습·강화학습 등의 기법이 있으며, 현재 많은 서비스에 적용되고 있다.
Group Relative Policy Optimizationの略。複数の応答をグループ内で相対比較して最適化する強化学習手法。クリティックモデルが不要でRLHFよりリソース効率が高い。
Group Relative Policy Optimization의 약자이다. 여러 응답을 그룹 내에서 상대 비교하여 최적화하는 강화 학습 기법으로, 크리틱 모델이 불필요하여 RLHF보다 자원 효율이 높은 것이 특징이다.
AI開発・利用における公平性・透明性・プライバシー保護・説明責任などの倫理的原則の体系的な枠組み。バイアスの排除や社会的影響の評価など、責任あるAI実現の基盤となる。
AI 개발·활용에서의 공정성·투명성·프라이버시 보호·설명 책임 등의 윤리적 원칙의 총칭이다. 편향 제거와 사회적 영향 평가 등 책임 있는 AI 실현의 기반이 된다.
AIシステムがもたらす潜在的なリスクを特定・分析・評価するプロセス。バイアス、プライバシー侵害、安全性の問題などを事前に洗い出し、リスク軽減策を策定するためのフレームワークである。
AI 시스템이 초래하는 잠재적 리스크를 특정·분석·평가하는 프로세스이다. 편향, 프라이버시 침해, 안전성 문제 등을 사전에 파악하고 리스크 경감책을 수립하기 위한 프레임워크이다.
llama.cppで使用される量子化モデルのファイルフォーマット。CPU推論に最適化されており、GPUが不要なためローカル環境でのLLM実行に広く採用されている。
llama.cpp에서 사용되는 양자화 모델의 파일 포맷이다. CPU 추론에 최적화되어 있으며 GPU가 불필요하므로 로컬 환경에서의 LLM 실행에 널리 채택되고 있다.
ニューラルネットワークの学習能力と記号推論の論理的推論能力を融合したAIアプローチ。データ駆動の柔軟性とルールベースの解釈可能性を両立させ、信頼性の高い意思決定を実現する。
뉴럴 네트워크의 학습 능력과 기호 추론의 논리적 추론 능력을 융합한 AI 접근법. 데이터 구동의 유연성과 룰 기반의 해석 가능성을 양립시켜 신뢰성 높은 의사결정을 실현한다.
Transformerのデコーダー部分のみで構成されるモデル設計。GPTシリーズに代表され、自己回帰的にトークンを逐次生成する方式で、テキスト生成タスクに特に高い性能を示す。
Transformer의 디코더 부분만으로 구성되는 모델 설계. GPT 시리즈로 대표되며, 자기회귀적으로 토큰을 순차 생성하는 방식으로 텍스트 생성 태스크에서 특히 높은 성능을 보인다.
AIの出力結果を別のAIモデルが検証・フィードバックする品質管理手法。人間のレビュー負荷を軽減しつつ、ハルシネーションや論理的矛盾を自動検出して出力の信頼性を向上させる。
AI의 출력 결과를 다른 AI 모델이 검증 및 피드백하는 품질 관리 기법이다. 인간의 리뷰 부하를 경감하면서 환각 현상이나 논리적 모순이 자동으로 검출된다.
ニューラルネットワークから重要度の低い重みやニューロンを体系的に除去してモデルを軽量化する手法。推論速度の向上とメモリ使用量の削減を同時に実現できる技術である。
신경망에서 중요도가 낮은 가중치나 뉴런을 체계적으로 제거하여 모델을 경량화하는 기법이다. 추론 속도 향상과 메모리 사용량 절감을 동시에 실현할 수 있다.
AIモデルの目的・性能・限界・倫理的考慮事項などを文書化した仕様書。モデルの透明性確保と責任あるAI開発を推進するために用いられる。
AI 모델의 목적·성능·한계·윤리적 고려사항 등을 문서화한 명세서. 모델의 투명성 확보와 책임 있는 AI 개발을 촉진하기 위해 활용된다.
入力を複数のアテンションヘッドに分割して並列に処理し、異なる部分空間での関係性を同時に捉えるTransformerの中核機構。各ヘッドが異なるパターンに注目することで表現力が向上する。
입력을 여러 어텐션 헤드로 분할하여 병렬 처리하고, 서로 다른 부분 공간에서의 관계성을 동시에 포착하는 Transformer의 핵심 구조이다. 각 헤드가 다른 패턴에 주목함으로써 표현력이 향상된다.
複数の決定木をアンサンブル学習で組み合わせた機械学習アルゴリズム。過学習に強く、分類・回帰タスクで高い汎化性能を発揮する手法。
여러 개의 결정 트리를 앙상블 학습으로 결합한 머신러닝 알고리즘. 과적합에 강하고 분류·회귀 태스크에서 높은 일반화 성능을 발휘하는 기법.
機械学習モデルの構築・選択・ハイパーパラメータチューニングを自動化する技術。専門知識がなくても高精度なモデルを効率的に作成できる。
머신러닝 모델의 구축·선택·하이퍼파라미터 튜닝을 자동화하는 기술. 전문 지식 없이도 높은 정확도의 모델을 효율적으로 작성할 수 있다.
ニューラルネットワークの内部動作をリバースエンジニアリングして理解する研究分野。個々のニューロンや回路が何を表現しているかを解明し、モデルの振る舞いを根本から説明する学問領域である。
신경망의 내부 동작을 리버스 엔지니어링하여 이해하는 연구 분야이다. 개별 뉴런이나 회로가 무엇을 표현하는지 해명하고 모델의 동작을 근본적으로 설명하는 학문 영역이다.
事前学習済みモデルに追加する軽量な変換層。LoRAなどの手法でベースモデルを固定したまま少量のパラメータを学習し、特定タスクへの適応を効率的に行う。
사전 학습된 모델에 추가하는 경량 변환 레이어. LoRA 등의 기법으로 베이스 모델을 고정한 채 소수의 파라미터만 학습하여 특정 태스크에 효율적으로 적응시킨다.
NVIDIA製の高性能推論最適化エンジン。モデルの量子化・レイヤー融合・カーネル最適化を自動で行い、NVIDIA GPU上での推論速度を大幅に向上させるツールである。
NVIDIA가 제작한 고성능 추론 최적화 엔진이다. 모델의 양자화·레이어 융합·커널 최적화를 자동으로 수행하여 NVIDIA GPU에서의 추론 속도를 대폭 향상시키는 도구이다.
確率上位K個のトークンに候補を限定し、その中から確率に基づいてランダムに次のトークンを選択する生成手法。低確率のノイズトークンを排除しつつ適度な多様性を持った出力を生成できる。
확률 상위 K개 토큰으로 후보를 한정하고 그중에서 확률에 기반하여 무작위로 다음 토큰을 선택하는 생성 기법이다. 저확률 노이즈 토큰을 배제하면서 적절한 다양성을 가진 출력을 생성할 수 있다.
事後量子化手法の一つで、ヘッセ行列の逆行列を用いてレイヤーごとに最適な量子化を行う。4ビットや3ビットへの量子化でも精度劣化を最小限に抑え、推論の高速化とメモリ削減を実現する。
사후 양자화 기법 중 하나로 헤세 행렬의 역행렬을 이용하여 레이어별로 최적의 양자화를 수행한다. 4비트나 3비트 양자화에서도 정확도 열화를 최소화하며 추론 고속화와 메모리 절감을 실현한다.
LLMや自然言語処理モデルを使い、長文テキストから要点を抽出・圧縮して短い要約文を自動生成する技術。抽出型と生成型の2種類がある。
LLM이나 자연어 처리 모델을 활용하여 긴 텍스트에서 핵심 내용을 추출·압축해 짧은 요약문을 자동 생성하는 기술로, 추출형과 생성형 두 가지 방식이 있다.
長文テキストをAIが自動的に要約する機能。会議議事録、ドキュメント、メールスレッドなどの情報圧縮に業務で広く活用される。
긴 텍스트를 AI가 자동으로 요약하는 기능. 회의 의사록, 문서, 메일 스레드 등의 정보 압축에 업무에서 널리 활용된다.
LLMの出力品質を人間の評価者が体系的に評価するための手順と基準を定めたプロトコル。評価者間の一致度の測定、評価基準の明確化、認知バイアス軽減策などを包括的に規定する。
LLM의 출력 품질을 인간 평가자가 체계적으로 평가하기 위한 절차와 기준을 정한 프로토콜이다. 평가자 간 일치도 측정, 평가 기준 명확화, 인지 바이어스 경감책 등을 포괄적으로 규정한다.
回転行列を用いてトークンの相対位置情報をアテンション計算に組み込む手法。絶対位置エンコーディングより長いシーケンスへの外挿性に優れ、多くの最新LLMで採用されている。
회전 행렬을 사용하여 토큰의 상대적 위치 정보를 어텐션 계산에 포함시키는 기법이다. 절대 위치 인코딩보다 긴 시퀀스에 대한 외삽 성능이 우수하여 많은 최신 LLM에서 채용되고 있다.
複数のGPU間でKVキャッシュをリング状に受け渡しながらアテンション計算を行う分散推論技法。各GPUがシーケンスの一部を担当することで、コンテキスト長を線形にスケールアップできる。
여러 GPU 간에 KV 캐시를 링 형태로 전달하면서 어텐션 계산을 수행하는 분산 추론 기법이다. 각 GPU가 시퀀스의 일부를 담당하여 컨텍스트 길이를 선형으로 스케일업할 수 있다.
機械学習モデルの学習履歴・パラメータ・評価指標をバージョン単位で記録・管理する手法。MLflowやDVCなどのツールを用いて再現性と追跡性を確保する。
머신러닝 모델의 학습 이력·파라미터·평가 지표를 버전 단위로 기록·관리하는 방법론. MLflow나 DVC 같은 도구를 활용해 재현성과 추적성을 확보한다.
量子化されたLLMモデルファイルをローカル環境のCPUまたはGPUで実行する技術。クラウドAPIに依存せずプライバシーを確保しながら、メモリ消費を大幅に抑えてモデルを稼働させる。
양자화된 LLM 모델 파일을 로컬 환경의 CPU 또는 GPU에서 실행하는 기술이다. 클라우드 API에 의존하지 않고 프라이버시를 확보하면서 메모리 소비가 대폭 억제된다.
ニューラルネットワークの各層において、ミニバッチ単位で入力を正規化する手法。学習の安定化・高速化に効果的で、過学習の抑制にも役立つ。
신경망의 각 레이어에서 미니배치 단위로 입력을 정규화하는 기법. 학습 안정화 및 고속화에 효과적이며, 과적합 억제에도 도움이 된다.
LLMが一度に処理できるトークン数(文脈長)が非常に長いこと。最新モデルでは100万トークン超を扱えるものもあり、長文書類や長い会話履歴の処理に活用される。
LLM이 한 번에 처리할 수 있는 토큰 수(문맥 길이)가 매우 긴 것을 의미한다. 최신 모델 중에는 100만 토큰 이상을 처리할 수 있는 것도 있으며, 긴 문서나 긴 대화 이력 처리에 활용된다.
機械翻訳や文章生成モデルの品質を評価する指標。参照文との単語のn-gram一致率をもとにスコア(0〜1)を算出し、翻訳精度の自動評価に広く使われる。
기계 번역 및 문장 생성 모델의 품질을 평가하는 지표. 참조 문장과의 n-gram 일치율을 기반으로 점수(0~1)를 산출하며, 번역 정확도 자동 평가에 널리 사용된다.
テキスト・画像・音声・動画など複数の異なる形式のデータを組み合わせて処理・理解できるAIモデル。GPT-4VやGeminiが代表例。
텍스트, 이미지, 음성, 동영상 등 여러 형식의 데이터를 복합적으로 처리하고 이해할 수 있는 AI 모델. GPT-4V, Gemini 등이 대표적인 예시다.
入力の複雑さやタスク種別に応じて、適切なLLMにリクエストを振り分けるルーティングシステム。簡単な質問は小型モデルに、複雑な質問は大型モデルに割り当てコストを最適化する。
입력의 복잡성이나 태스크 종류에 따라 적절한 LLM에 요청을 분배하는 라우팅 시스템이다. 간단한 질문은 소형 모델에, 복잡한 질문은 대형 모델에 할당하여 비용을 최적화한다.
テキストデータを事前定義したカテゴリに自動的に振り分けるAI技術。メール分類やサポートチケットの振り分けなど、NLPを活用した業務自動化に広く使われる。
텍스트 데이터를 사전 정의된 카테고리로 자동 분류하는 AI 기술. 이메일 분류나 지원 티켓 분류 등 NLP를 활용한 업무 자동화에 널리 활용된다.
AI APIへのリクエスト頻度を制御し、コスト超過やサービス制限を防ぐ仕組み。TPM・RPMなどの指標でスロットリングを行う。
AI API에 대한 요청 빈도를 제어하여 비용 초과나 서비스 제한을 방지하는 구조. TPM·RPM 등의 지표로 스로틀링을 수행한다.
外部知識ベースから関連情報を検索し、その情報をLLMの生成プロセスに組み込む手法。RAGと略され、モデルの知識限界やハルシネーションを補う目的で活用される。
외부 지식 베이스에서 관련 정보를 검색하여 LLM의 생성 프로세스에 결합하는 기법. RAG로 약칭되며, 모델의 지식 한계나 환각 현상을 보완하기 위해 활용된다.
コードの生成・修正・テスト・デバッグを自律的に行うAIエージェント。リポジトリ全体を理解し、複数ファイルにまたがる変更を計画・実行できる能力を持つ開発支援ツールとして注目される。
코드 생성·수정·테스트·디버깅을 자율적으로 수행하는 AI 에이전트이다. 리포지토리 전체를 이해하고 여러 파일에 걸친 변경을 계획·실행할 수 있는 능력을 갖춘 개발 지원 도구이다.
複数のプロンプトを連鎖的に実行し、前段の出力を後段の入力として活用する設計パターン。複雑なタスクを段階的に処理できる。
복수의 프롬프트를 연쇄적으로 실행하여 이전 단계의 출력을 다음 단계의 입력으로 활용하는 설계 패턴. 복잡한 태스크를 단계적으로 처리할 수 있다.
複数のAI APIへのアクセスを統一的に管理するミドルウェア。認証・ログ・レート制限・モデルルーティングなどを一元的に制御する。
복수의 AI API 접근을 통합적으로 관리하는 미들웨어. 인증·로그·속도 제한·모델 라우팅 등을 일원적으로 제어한다.
大規模モデルが生成した合成データを使って小規模モデルを学習させる知識蒸留の手法。教師モデルの出力分布ではなく、生成されたテキストデータそのものを学習に利用する点が特徴的である。
대규모 모델이 생성한 합성 데이터를 사용하여 소규모 모델을 학습시키는 지식 증류 기법이다. 교사 모델의 출력 분포가 아닌 생성된 텍스트 데이터 자체를 학습에 활용하는 점이 특징적이다.
全次元に非ゼロの値が入った高密度のベクトル表現。テキストの意味的な類似性を捉えるのに優れており、エンベディングモデルで生成されてセマンティック検索に広く使用される。
모든 차원에 0이 아닌 값이 들어간 고밀도 벡터 표현이다. 의미적 유사성을 포착하는 데 뛰어나며, 임베딩 모델로 생성되어 시맨틱 검색에 널리 사용된다.
モデルサイズ・データ量・計算量とモデル性能の関係を表す経験則。パラメータ数やデータを増やすと性能がべき乗則に従って予測可能に向上することを示す重要な知見である。
모델 크기·데이터량·계산량과 모델 성능의 관계를 나타내는 경험 법칙이다. 파라미터 수나 데이터를 늘리면 성능이 거듭제곱 법칙에 따라 예측 가능하게 향상됨을 보여주는 중요한 지견이다.
AI画像生成モデルの出力品質を定量的に測定する手法。FID・CLIPスコア・人間評価などの指標を用い、生成画像の写実性・多様性・プロンプト忠実度を総合的に評価する。
AI 이미지 생성 모델의 출력 품질을 정량적으로 측정하는 기법. FID·CLIP 점수·인간 평가 등의 지표를 사용하여 생성 이미지의 사실성·다양성·프롬프트 충실도를 종합적으로 평가한다.
Transformerにおいて最初のトークンにアテンションが集中する現象を活用した技法。先頭トークンを常に保持することで、コンテキストウィンドウを超えた長文でも安定した推論を可能にする。
Transformer에서 첫 번째 토큰에 어텐션이 집중되는 현상을 활용한 기법이다. 선두 토큰을 항상 유지함으로써 컨텍스트 윈도우를 초과하는 장문에서도 안정적인 추론을 가능하게 한다.
同じモデルのコピーを複数のGPUに配置し、異なるデータバッチを並行して処理する最も基本的な分散学習手法。勾配を全GPU間で同期・集約することで、学習を高速化する。
동일 모델의 복사본을 여러 GPU에 배치하여 서로 다른 데이터 배치를 병행 처리하는 가장 기본적인 분산 학습 기법이다. 그래디언트를 전체 GPU 간에 동기·집약하여 학습을 고속화한다.
複数のLLMプロバイダーへのAPIリクエストを統合管理するプロキシサーバー。認証・レート制限・フォールバック・ログ収集を一元化し、マルチモデル環境でのLLM運用を効率化する。
복수의 LLM 프로바이더로의 API 요청을 통합 관리하는 프록시 서버이다. 인증, 레이트 제한, 폴백, 로그 수집을 일원화하여 멀티 모델 환경에서의 LLM 운용을 효율화한다.
文書を意味の区切りに基づいて分割するRAGの前処理手法。固定長分割より文脈の一貫性を保ったチャンクを生成でき、検索精度の向上と回答品質の改善につながる重要な技術である。
문서를 의미의 구분에 기반하여 분할하는 RAG의 전처리 기법이다. 고정 길이 분할보다 문맥의 일관성을 유지한 청크를 생성할 수 있어 검색 정확도 향상과 응답 품질 개선으로 이어지는 중요한 기술이다.
AIシステムの設計・運用において、公平性・透明性・安全性・プライバシーを確保し、社会的責任を果たすための原則や実践の総称。
AI 시스템의 설계 및 운용에서 공정성·투명성·안전성·프라이버시를 확보하고 사회적 책임을 다하기 위한 원칙과 실천의 총칭.
ユーザー入力の意味を解析し、最適なAIモデルやツール、ワークフローに自動的にルーティングする手法。意図分類とベクトル類似度を組み合わせて高精度な振り分けを実現する。
사용자 입력의 의미를 분석하여 최적의 AI 모델이나 도구, 워크플로에 자동으로 라우팅하는 기법이다. 의도 분류와 벡터 유사도를 결합하여 고정밀 분배를 실현한다.
機械学習の学習データに対してラベルやタグを付与する作業。画像・テキスト・音声などのデータに正解情報を付けてモデルの精度向上に活用される。
머신러닝 학습 데이터에 레이블이나 태그를 부여하는 작업. 이미지·텍스트·음성 등의 데이터에 정답 정보를 붙여 모델의 정확도 향상에 활용된다.
機械学習モデルの最適なネットワーク構造を自動探索する手法。NASとも呼ばれ、人手によるアーキテクチャ設計を自動化し、精度と効率を両立したモデルを発見する。
머신러닝 모델의 최적 네트워크 구조를 자동으로 탐색하는 기법. NAS라고도 하며, 수작업 아키텍처 설계를 자동화하여 정확도와 효율성을 모두 갖춘 모델을 발견한다.
強化学習における方策最適化手法の一つ。Proximal Policy Optimizationの略で、学習の安定性と効率を両立し、LLMのファインチューニング(RLHF)でも広く活用される。
강화학습에서 사용하는 정책 최적화 기법 중 하나. Proximal Policy Optimization의 약자로, 학습 안정성과 효율성을 동시에 확보하며 LLM 파인튜닝(RLHF)에서도 널리 활용된다.
大規模言語モデル(LLM)がプロンプト内の少数例示を参照して、追加学習なしに新タスクを推論・実行する能力。Few-shot学習とも密接に関連する。
대규모 언어 모델(LLM)이 프롬프트 내 소수의 예시를 참조하여 추가 학습 없이 새로운 태스크를 추론하고 수행하는 능력. Few-shot 학습과도 밀접하게 연관된다.
自律的に目標を達成するためにタスクを計画・実行するAIシステム。LLMを中核に、ツール呼び出しや外部API連携を通じて複雑な処理を自動化する。
자율적으로 목표를 달성하기 위해 작업을 계획하고 실행하는 AI 시스템. LLM을 핵심으로 툴 호출이나 외부 API 연동을 통해 복잡한 처리를 자동화한다.
Googleが開発したモバイル・組み込み向けの軽量機械学習フレームワーク。TensorFlowモデルを変換し、Android/iOSやマイコン上でオフライン推論を実行できる。
Google이 개발한 모바일 및 임베디드용 경량 머신러닝 프레임워크. TensorFlow 모델을 변환하여 Android/iOS 및 마이크로컨트롤러에서 오프라인 추론을 실행할 수 있다.
モデルの重みを更新せず、プロンプト内に例や指示を含めることでタスクへの適応を行う手法。Few-shotやZero-shotが代表的である。
모델 가중치를 업데이트하지 않고 프롬프트에 예시나 지시를 포함하여 태스크 적응을 수행하는 기법. Few-shot과 Zero-shot이 대표적이다.
LLMアプリケーションのレイテンシー・トークン消費量・エラー率・コストなどの運用指標をリアルタイムで可視化する監視画面。異常検知やコスト超過の早期発見に活用される。
LLM 애플리케이션의 레이턴시·토큰 소비량·에러율·비용 등의 운영 지표를 실시간으로 시각화하는 모니터링 화면. 이상 검지나 비용 초과의 조기 발견에 활용된다.
専門家の行動データからポリシーを直接学習する手法で、報酬関数の設計が不要なため強化学習より効率的にエージェントを訓練できる。自動運転やロボット制御の分野で広く研究されている。
전문가의 행동 데이터에서 정책을 직접 학습하는 기법으로, 보상 함수 설계가 불필요하여 강화학습보다 효율적으로 에이전트를 훈련할 수 있다. 자율주행이나 로봇 제어 분야에서 널리 연구되고 있다.
AI開発・運用における倫理的な基準と行動指針。公平性・透明性・プライバシー保護・説明責任などの原則を定めたルールである。
AI 개발·운영에서의 윤리적 기준과 행동 지침. 공정성·투명성·프라이버시 보호·설명 책임 등의 원칙을 정한 규칙이다.
自然言語の指示からAIがプログラムコードを自動生成する技術。コード補完、テスト生成、リファクタリング提案などに活用される。
자연어 지시에서 AI가 프로그램 코드를 자동 생성하는 기술. 코드 보완, 테스트 생성, 리팩토링 제안 등에 활용된다.
AIエージェントのコード実行やツール呼び出しを隔離環境で安全に実行するための仕組み。本番システムへの意図しない影響を防止しながらエージェントの動作を検証・実行できる。
AI 에이전트의 코드 실행이나 도구 호출을 격리 환경에서 안전하게 실행하기 위한 구조이다. 프로덕션 시스템에 대한 의도치 않은 영향을 방지하면서 에이전트의 동작이 검증된다.
推論時により多くの計算リソースを投入することでモデルの出力品質を向上させる手法。テスト時の計算量を増やすことで、学習時のパラメータ数を増やさずに性能改善を実現する新しいスケーリング戦略である。
추론 시 더 많은 계산 리소스를 투입하여 모델의 출력 품질을 향상시키는 기법이다. 테스트 시 계산량을 늘려 학습 시 파라미터 수를 늘리지 않고도 성능 개선을 실현하는 새로운 스케일링 전략이다.
ニューラルネットワークの各層の出力に非線形性を導入する関数。ReLU・Sigmoid・GELU・SwiGLUなど多くの種類があり、モデルの表現力を高める重要な構成要素である。
신경망 각 층의 출력에 비선형성을 도입하는 함수이다. ReLU·Sigmoid·GELU·SwiGLU 등 다양한 종류가 있으며, 모델의 표현력을 높이는 중요한 구성 요소이다.
AIモデルが有害な出力や偏見のある回答を生成しないかを検証するテスト手法。Red Teamingやアドバーサリアルテストなどがある。
AI 모델이 유해한 출력이나 편향된 응답을 생성하지 않는지 검증하는 테스트 기법. Red Teaming이나 적대적 테스트 등의 기법이 있다.
入力クエリの内容に応じて最適なLLMモデルに振り分ける仕組み。コスト効率と回答品質のバランスを最適化するために使用される。
입력 쿼리 내용에 따라 최적의 LLM 모델로 분배하는 구조. 비용 효율과 응답 품질의 균형을 최적화하기 위해 사용된다.
データを中央に集約せず、各端末やサーバーでローカルに学習した結果のみを共有してグローバルモデルを構築する分散学習手法。医療や金融などデータ共有が困難な領域で活用される。
데이터를 중앙에 집약하지 않고 각 단말이나 서버에서 로컬로 학습한 결과만 공유하여 글로벌 모델을 구축하는 분산 학습 기법이다. 의료나 금융 등 데이터 공유가 어려운 영역에서 활용된다.
AIやスクリプトを用いてコードのコメントや仕様書、APIドキュメントなどを自動的に生成する技術。開発工数削減と品質均一化に貢献する。
AI나 스크립트를 활용해 코드 주석, 사양서, API 문서 등을 자동으로 생성하는 기술로, 개발 공수 절감과 품질 균일화에 기여한다.
プロンプトインジェクションやジェイルブレイクなどの攻撃からLLMアプリケーションを保護するセキュリティ対策の総称。入出力フィルタリングやサンドボックス化などの防御手法を含む。
프롬프트 인젝션이나 탈옥 등의 공격으로부터 LLM 애플리케이션을 보호하는 보안 대책의 총칭. 입출력 필터링이나 샌드박스화 등의 방어 기법을 포함한다.
LLMが外部ツールやAPIを自律的に呼び出して情報取得・計算・操作を行う機能。検索エンジンやコード実行環境との連携により、モデル単体では不可能なタスクを遂行できる。
LLM이 외부 도구나 API를 자율적으로 호출하여 정보 취득·계산·조작을 수행하는 기능이다. 검색 엔진이나 코드 실행 환경과의 연계를 통해 모델 단독으로는 불가능한 태스크를 수행할 수 있다.
LLMのChain-of-Thought推論の各ステップを自動的に検証して誤りを検出する技術。中間推論ステップの論理的整合性を検査し、最終回答の信頼性を向上させるための品質保証手法である。
LLM의 Chain-of-Thought 추론의 각 단계를 자동으로 검증하여 오류를 탐지하는 기술이다. 중간 추론 단계의 논리적 정합성을 검사하고 최종 답변의 신뢰성을 향상시키기 위한 품질 보증 기법이다.
本番環境に投入されるデータの分布が学習時と徐々に乖離してモデル精度が低下する現象。モデル監視で継続的に検出し、適切なタイミングで再学習やモデル更新を行う必要がある。
프로덕션 환경에 투입되는 데이터 분포가 학습 시와 점차 달라져 모델 정확도가 저하되는 현상이다. 모델 모니터링으로 지속적으로 탐지하여 재학습이나 모델 갱신으로 대처해야 한다.
AIを活用してテストコードやテストケースを自動生成する手法。LLMや機械学習モデルがコードを解析し、網羅的なユニットテストや結合テストを生成することで開発効率を向上させる。
AI를 활용하여 테스트 코드나 테스트 케이스를 자동으로 생성하는 기법. LLM이나 머신러닝 모델이 코드를 분석하여 포괄적인 단위 테스트 및 통합 테스트를 생성함으로써 개발 효율을 향상시킨다.
Direct Preference Optimization。RLHFの報酬モデルを必要とせず、人間の好みデータを直接使ってLLMをファインチューニングする手法。
Direct Preference Optimization. RLHF의 보상 모델 없이 인간의 선호 데이터를 직접 사용하여 LLM을 파인튜닝하는 기법.
人間のフィードバックを用いた強化学習(Reinforcement Learning from Human Feedback)。AIモデルの出力を人間の評価で訓練し、より安全で意図に沿った応答を実現する手法。ChatGPTなどで採用。
인간의 피드백을 활용한 강화학습(Reinforcement Learning from Human Feedback). AI 모델의 출력을 인간의 평가로 학습시켜 더 안전하고 의도에 부합하는 응답을 구현하는 기법. ChatGPT 등에 적용됨.
学習済みAIモデルを本番環境で高速に推論実行するためのランタイム基盤。TensorRT、ONNX Runtime、vLLMなどが代表的である。
학습 완료 AI 모델을 프로덕션 환경에서 고속으로 추론 실행하기 위한 런타임 기반. TensorRT, ONNX Runtime, vLLM 등이 대표적이다.
LLMがJSON・XMLなど特定のフォーマットに従って出力を返す機能。APIレスポンスの後処理が不要になり、アプリへの組み込みが容易になる。
LLM이 JSON·XML 등 특정 형식에 따라 출력을 반환하는 기능. API 응답의 후처리가 필요 없어져 앱 통합이 쉬워진다.
AIが生成したテキストや画像に不可視の識別情報を埋め込む技術。生成コンテンツの出所を追跡可能にし、ディープフェイク対策やAI生成物の真正性証明に広く活用されている。
AI가 생성한 텍스트나 이미지에 비가시적 식별 정보를 삽입하는 기술. 생성 콘텐츠의 출처를 추적 가능하게 하며, 딥페이크 대책이나 AI 생성물의 진정성 증명에 널리 활용되고 있다.
LLM利用時のトークン消費量を最小限に抑えるための設計手法。プロンプト設計やレスポンス制御によりAPIコストを削減する。
LLM 사용 시 토큰 소비량을 최소한으로 억제하기 위한 설계 기법. 프롬프트 설계와 응답 제어로 API 비용을 절감한다.
同一または類似のプロンプトに対するLLM応答をキャッシュして再利用することで、コストとレイテンシを削減する運用技術。完全一致キャッシュとセマンティックキャッシュの手法がある。
동일하거나 유사한 프롬프트에 대한 LLM 응답을 캐시하여 재사용함으로써 비용과 레이턴시를 절감하는 운용 기술이다. 완전 일치 캐시와 시맨틱 캐싱 등의 기법이 활용된다.
機械学習モデルの設計・開発・運用を体系的に行うエンジニアリング領域。データパイプライン構築からモデルのデプロイ・監視までを担う。
머신러닝 모델의 설계·개발·운영을 체계적으로 수행하는 엔지니어링 분야. 데이터 파이프라인 구축부터 모델 배포·모니터링까지를 담당한다.
複数の推論リクエストをまとめて一括処理することでスループットを向上させる手法。リアルタイム性が不要な場面で効率的である。
복수의 추론 요청을 모아서 일괄 처리하여 스루풋을 향상시키는 기법. 실시간성이 불필요한 상황에서 효율적이다.
学習時に勾配の大きさが閾値を超えた場合にスケーリングまたはカットする手法。勾配爆発を防止し、深いニューラルネットワークの学習を安定化させる基本的なテクニックである。
학습 시 기울기 크기가 임계값을 초과할 경우 스케일링 또는 절단하는 기법이다. 기울기 폭발을 방지하고 깊은 뉴럴 네트워크의 학습을 안정화시키는 기본적인 테크닉이다.
GPUのメモリ階層を考慮してアテンション計算を最適化するアルゴリズム。HBMとSRAM間のデータ移動を最小化し、標準アテンションと比べて2〜4倍の高速化を実現する手法である。
GPU의 메모리 계층을 고려하여 어텐션 계산을 최적화하는 알고리즘이다. HBM과 SRAM 간 데이터 이동을 최소화하여 표준 어텐션 대비 2~4배의 고속화를 실현하는 기법이다.
機械学習で使用する特徴量(フィーチャー)を一元管理・共有するためのデータ基盤。学習・推論パイプライン間で特徴量の再利用性と一貫性を担保する。
머신러닝에 사용되는 피처(특징량)를 중앙에서 관리하고 공유하기 위한 데이터 인프라. 학습 및 추론 파이프라인 간 피처의 재사용성과 일관성을 보장한다.
複数のLoRAアダプターを同時に読み込んで動的に切り替えたり組み合わせたりする技術。タスクやユーザーに応じて異なるアダプターを選択的に適用し、単一のベースモデルで多様なカスタマイズを実現する。
복수의 LoRA 어댑터를 동시에 읽어 들여 동적으로 전환하거나 조합하는 기술이다. 태스크나 사용자에 따라 서로 다른 어댑터를 선택적으로 적용하여 단일 베이스 모델로 다양한 커스터마이즈를 실현한다.
推論時にユーザーの入力コンテキストに基づいてモデルの動作をリアルタイムで調整する技術。事前学習済みモデルを推論リクエストごとにタスク特化させることで出力品質を動的に向上させる。
추론 시 사용자의 입력 컨텍스트에 기반하여 모델의 동작을 실시간으로 조정하는 기술이다. 사전 학습 모델을 추론 요청마다 태스크에 특화시켜 출력 품질을 동적으로 향상시키는 기법이다.
ニューラルネットワークの計算グラフを最適化し、特定のハードウェア上で効率的に実行できるコードに変換するツール。推論速度の向上やメモリ使用量の削減に役立ち、デプロイの効率化に貢献する。
뉴럴 네트워크의 계산 그래프를 최적화하여 특정 하드웨어에서 효율적으로 실행할 수 있는 코드로 변환하는 도구이다. 추론 속도 향상이나 메모리 사용량 절감에 도움이 되며 배포 효율화에 기여한다.
テキストや画像などのデータを数値ベクトルに変換する手法。意味的な類似度を計算できるため、検索や推薦システム、LLMの前処理などで広く活用される。
텍스트나 이미지 등의 데이터를 수치 벡터로 변환하는 기법. 의미적 유사도를 계산할 수 있어 검색, 추천 시스템, LLM 전처리 등에 널리 활용된다.
AIシステムが意図した通りに安全・確実に動作するよう設計・評価する取り組み。誤動作・悪用・予期せぬ副作用を防ぐことを目的とする。
AI 시스템이 의도한 대로 안전하고 확실하게 동작하도록 설계·평가하는 활동으로, 오작동·악용·예기치 않은 부작용 방지를 목적으로 한다.
データ並列・テンソル並列・パイプライン並列の3つの並列化戦略を同時に組み合わせる大規模モデル訓練手法。数千GPU規模のクラスタで兆パラメータモデルを効率的に訓練するために用いられる。
데이터 병렬·텐서 병렬·파이프라인 병렬의 3가지 병렬화 전략을 동시에 결합하는 대규모 모델 훈련 기법이다. 수천 GPU 규모의 클러스터에서 조 단위 파라미터 모델을 효율적으로 훈련하기 위해 사용된다.
AIエージェントが外部リソースにアクセスする際に隔離された実行環境を提供するセキュリティ機構。ファイルシステムやネットワークへのアクセスを制限し、意図しない操作を防止する。
AI 에이전트가 외부 리소스에 접근할 때 격리된 실행 환경을 제공하는 보안 기구이다. 파일 시스템이나 네트워크 접근을 제한하여 의도하지 않은 조작을 방지한다.
LLMの強化学習において、報酬モデルを使わずに人間の選好データから直接モデルを最適化する手法。RLHFより計算コストが低く安定して学習できる。
LLM 강화학습에서 보상 모델 없이 인간의 선호 데이터로 직접 모델을 최적화하는 기법으로, RLHF보다 계산 비용이 낮고 안정적으로 학습할 수 있다.
AIエージェントが複数の外部ツールを適切な順序・条件で呼び出し、エラーハンドリングやリトライを含めて協調動作させる制御機構。ツール選択の正確性がタスク成功率に直結する。
AI 에이전트가 복수의 외부 도구를 적절한 순서와 조건으로 호출하여 에러 핸들링이나 재시도를 포함해 협조 동작시키는 제어 구조이다. 도구 선택의 정확성이 태스크 성공률에 직결된다.
類似したデータペアを近づけ、異なるデータペアを遠ざけるようにモデルを訓練する自己教師あり学習の一種。ラベルなしデータから高品質な表現を獲得でき、画像認識や文埋め込みで広く活用される。
유사한 데이터 쌍은 가깝게, 다른 데이터 쌍은 멀게 배치하도록 모델을 훈련하는 자기지도 학습의 일종이다. 라벨 없는 데이터에서 고품질 표현을 획득할 수 있어 이미지 인식이나 문장 임베딩에 널리 활용된다.
学習データに意図的に汚染されたサンプルを混入させ、モデルの挙動を操作する攻撃手法。特定の入力パターンに対して誤った出力を返すバックドアの埋め込みなどに悪用される危険がある。
학습 데이터에 의도적으로 오염된 샘플을 혼입시켜 모델의 거동을 조작하는 공격 기법이다. 특정 입력 패턴에 대해 잘못된 출력을 반환하는 백도어 삽입 등에 악용될 위험이 있다.
テキストを意味を持つ最小単位(形態素)に分割し、品詞などの情報を付与する自然言語処理の基本技術。MeCabやSudachiなどのツールが広く使われる。
텍스트를 의미를 가진 최소 단위(형태소)로 분리하고 품사 등의 정보를 부여하는 자연어 처리의 기본 기술. MeCab, Sudachi 등의 도구가 널리 사용된다.
入力クエリの難易度や種類に応じて最適なLLMに自動的にルーティングする仕組み。簡単な質問は安価な小型モデルに、複雑な質問は高性能な大型モデルに振り分けてコストを最適化する技術である。
입력 쿼리의 난이도나 종류에 따라 최적의 LLM으로 자동 라우팅하는 구조이다. 간단한 질문은 저렴한 소형 모델에, 복잡한 질문은 고성능 대형 모델에 분배하여 비용을 최적화하는 기술이다.
Model Context Protocolに準拠して外部ツールやデータソースをAIエージェントに公開するサーバーコンポーネント。標準化されたインターフェースでエージェントからのツール呼び出しを処理する。
Model Context Protocol에 준거하여 외부 도구나 데이터 소스를 AI 에이전트에 공개하는 서버 컴포넌트이다. 표준화된 인터페이스로 에이전트의 도구 호출을 처리한다.
文書画像やPDFからテキスト・構造情報をAIで自動抽出する技術。OCRを超えた高精度な帳票解析や契約書処理に活用される。
문서 이미지나 PDF에서 텍스트 및 구조 정보를 AI로 자동 추출하는 기술. OCR을 넘어선 고정밀 양식 분석 및 계약서 처리에 활용된다.
活性化の分布を考慮した重み量子化手法で、重要な重みチャネルを自動的に特定し保護しながら量子化する。GPTQより高速に量子化でき、推論速度と精度のバランスに優れている。
활성화 분포를 고려한 가중치 양자화 기법으로 중요한 가중치 채널을 자동으로 특정하고 보호하면서 양자화한다. GPTQ보다 고속으로 양자화할 수 있으며 추론 속도와 정확도의 균형이 우수하다.
テキストプロンプトや画像入力から新しい画像を自動生成するAI技術。Stable DiffusionやDALL-Eなどの拡散モデルが主流で、デザインやコンテンツ制作に革新をもたらしている。
텍스트 프롬프트나 이미지 입력으로부터 새로운 이미지를 자동 생성하는 AI 기술이다. Stable Diffusion이나 DALL-E 등의 확산 모델이 주류이며, 디자인과 콘텐츠 제작에 혁신을 가져오고 있다.
モデルのAPIアクセスを通じて学習データの特徴を逆推定し、機密情報を復元する攻撃手法。顔認識モデルから訓練に使われた顔画像を再構成するなど、プライバシーに深刻な脅威をもたらす。
모델의 API 접근을 통해 학습 데이터의 특징을 역추정하고 기밀 정보를 복원하는 공격 기법이다. 얼굴 인식 모델에서 훈련에 사용된 얼굴 이미지를 재구성하는 등 프라이버시에 심각한 위협을 초래한다.
画像や動画内の複数の物体を検出し、位置(バウンディングボックス)とクラスを同時に予測するDLモデル。YOLO、SSD、Faster R-CNNなどが代表的。
이미지나 동영상 내 여러 객체를 탐지하고, 위치(바운딩 박스)와 클래스를 동시에 예측하는 DL 모델. YOLO, SSD, Faster R-CNN 등이 대표적이다.
大規模な教師モデルの知識を小規模な生徒モデルに転移させる技術。推論速度の向上やモデルの軽量化を目的とし、エッジデバイスへの展開などに活用される。
대규모 교사 모델의 지식을 소규모 학생 모델로 전이시키는 기술. 추론 속도 향상과 모델 경량화를 목적으로 하며, 엣지 디바이스 배포 등에 활용된다.
本番環境のMLモデルに入力されるデータの統計的分布が、学習時と乖離してきた状態(データドリフト)を自動的に検出する仕組み。モデル劣化の早期発見に活用される。
프로덕션 환경의 ML 모델에 입력되는 데이터의 통계적 분포가 학습 시점과 달라진 상태(데이터 드리프트)를 자동으로 감지하는 메커니즘. 모델 성능 저하를 조기에 발견하는 데 활용된다.
外部知識ベースから関連情報を検索し、LLMの回答精度を高めるRetrieval-Augmented Generationシステムを設計・実装すること。ベクトルDBとの連携が核心。
외부 지식 베이스에서 관련 정보를 검색하여 LLM의 답변 정확도를 높이는 RAG 시스템을 설계·구현하는 것. 벡터 DB 연동이 핵심이다.
データセットの作成目的・収集方法・構成・前処理手順・倫理的配慮などを体系的に文書化した標準化文書。データの透明性と再現性を確保し、適切な利用判断を支援するためのベストプラクティスである。
데이터셋의 작성 목적·수집 방법·구성·전처리 절차·윤리적 배려 등을 체계적으로 문서화한 표준화 문서이다. 데이터의 투명성과 재현성을 확보하여 적절한 이용 판단을 지원하는 베스트 프랙티스이다.
テキスト・画像・音声など複数のデータ形式を同時に処理・理解できるAIモデル。GPT-4VやGeminiなどが代表例で、より人間に近い認知処理を実現する。
텍스트, 이미지, 음성 등 여러 데이터 형식을 동시에 처리하고 이해할 수 있는 AI 모델. GPT-4V, Gemini 등이 대표적이며, 인간의 인지 처리에 더 가까운 방식을 구현한다.
大規模言語モデルの能力を体系的に測定するための標準化されたテストセット。MMLU、HumanEval、MT-Benchなど多様な評価基準があり、モデル選定の判断材料として使用される。
대규모 언어 모델의 능력을 체계적으로 측정하기 위한 표준화된 테스트 세트이다. MMLU, HumanEval, MT-Bench 등 다양한 평가 기준이 있으며 모델 선정의 판단 자료로 사용된다.
プライベートなデータや外部データをLLMに接続するためのデータフレームワーク。ドキュメントの読み込み、ベクトル化、インデックス作成、クエリ実行を簡素化し、RAGアプリケーション構築を強力に支援する。
프라이빗 데이터나 외부 데이터를 LLM에 연결하기 위한 데이터 프레임워크. 문서 로딩, 벡터화, 인덱스 생성, 쿼리 실행을 간소화하여 RAG 애플리케이션 구축을 강력하게 지원한다.
AIモデルがテキストをトークン単位で逐次送信する応答方式。全文生成を待たずにリアルタイムで表示できるため、ChatGPTのような打鍵感のあるUXを実現する。
AI 모델이 텍스트를 토큰 단위로 순차적으로 전송하는 응답 방식. 전체 생성을 기다리지 않고 실시간으로 표시할 수 있어, ChatGPT와 같은 타이핑 효과의 UX를 구현한다.
状態空間理論に基づくシーケンスモデリング手法で、Mambaが代表例。トランスフォーマーのO(n²)と異なりO(n)の計算量で長い系列を処理でき、線形スケーリングが可能である。
상태 공간 이론에 기반한 시퀀스 모델링 기법으로 Mamba가 대표적이다. 트랜스포머의 O(n²)과 달리 O(n) 계산량으로 긴 시퀀스를 처리할 수 있어 선형 스케일링이 가능한 아키텍처이다.
大規模言語モデルの全パラメータを更新せず、少数のパラメータのみを調整してモデルを特定タスクに適応させる手法。LoRAやAdapterなどが代表例で、計算コストを大幅に削減できる。
대규모 언어 모델의 전체 파라미터를 업데이트하지 않고, 소수의 파라미터만 조정하여 모델을 특정 태스크에 적응시키는 기법. LoRA, Adapter 등이 대표적이며 계산 비용을 크게 절감할 수 있다.
各タイムステップで最も確率の高いトークンを貪欲に選択するデコーディング手法。計算が高速だが、局所最適に陥りやすく多様性のある出力が得られないため、確定的な応答が求められる場面で使われる。
각 타임스텝에서 가장 확률이 높은 토큰을 탐욕적으로 선택하는 디코딩 기법이다. 계산이 빠르지만 지역 최적에 빠지기 쉬워 다양한 출력을 얻기 어려워, 확정적 응답이 필요한 장면에서 사용된다.
大規模モデルの推論を複数GPUに分散し、パイプライン方式で並列処理する技術。単一GPUに載りきらないモデルの推論を可能にしつつレイテンシとスループットの両方を改善する。
대규모 모델의 추론을 복수 GPU에 분산하여 파이프라인 방식으로 병렬 처리하는 기술이다. 단일 GPU에 올릴 수 없는 모델의 추론을 가능하게 하면서 레이턴시와 처리량 모두를 개선한다.
入力シーケンス内の各トークンが他のすべてのトークンとの関連度を計算する機構。TransformerモデルやBERTなどの基盤技術であり、文脈を考慮した表現学習を可能にする。
입력 시퀀스 내 각 토큰이 다른 모든 토큰과의 관련도를 계산하는 메커니즘. Transformer 모델 및 BERT 등의 핵심 기술로, 문맥을 고려한 표현 학습을 가능하게 한다.
AIモデルや機械学習システムの性能を標準的なデータセットや評価指標を用いて測定・比較する手法。モデル選定や改善の指針となる。
AI 모델이나 머신러닝 시스템의 성능을 표준 데이터셋과 평가 지표를 활용해 측정·비교하는 방법론. 모델 선정 및 개선 방향의 기준이 된다.
AIモデル同士を対戦・対話させることでデータを自動生成し、そのデータでモデルの自己改善を図る学習手法。人手によるデータ作成が不要で、強化学習やLLMの能力向上に活用される。
AI 모델끼리 대전 및 대화를 시켜 데이터를 자동 생성하고 그 데이터로 모델의 자기 개선을 도모하는 학습 기법이다. 수작업 데이터 작성이 불필요하며 강화학습이나 LLM 능력 향상에 활용된다.
AIが生成したコンテンツに不可視の識別情報を埋め込む技術。電子透かしの一種で、生成元のモデルやバージョンを追跡可能にし、AI生成コンテンツの出所証明に活用される。
AI가 생성한 콘텐츠에 비가시적 식별 정보를 삽입하는 기술이다. 전자 워터마크의 일종으로 생성원 모델이나 버전을 추적 가능하게 하여 AI 생성 콘텐츠의 출처 증명에 활용된다.
テキスト生成の終了を示す特殊トークンで、モデルがこのトークンを出力すると生成が停止する。API利用時にカスタムストップシーケンスを設定することで、出力の長さやフォーマットを制御できる。
텍스트 생성의 종료를 나타내는 특수 토큰으로, 모델이 이 토큰을 출력하면 생성이 중단된다. API 사용 시 커스텀 스톱 시퀀스를 설정하여 출력의 길이나 포맷을 제어할 수 있다.
意味的に類似したクエリに対して過去の応答を再利用するキャッシュ技術。埋め込みベクトルの類似度を用いて判定し、LLMのAPIコスト削減と応答速度の向上を同時に実現する。
의미적으로 유사한 쿼리에 대해 과거 응답을 재활용하는 캐시 기술. 임베딩 벡터의 유사도를 이용해 판정하며, LLM의 API 비용 절감과 응답 속도 향상을 동시에 실현한다.
機械学習モデルの開発・運用に必要なデータ収集・前処理・学習・評価・デプロイの一連のワークフローを自動化・管理する仕組み。再現性と効率化が目的。
머신러닝 모델의 개발 및 운영에 필요한 데이터 수집·전처리·학습·평가·배포의 일련의 워크플로를 자동화하고 관리하는 구조. 재현성과 효율화가 목적.
学習時に見たことのないクラスや概念を、追加学習なしに推論できる機械学習の手法。プロンプトエンジニアリングやLLM活用でも重要な概念。
학습 시 본 적 없는 클래스나 개념을 추가 학습 없이 추론할 수 있는 머신러닝 기법으로, 프롬프트 엔지니어링과 LLM 활용에서도 중요한 개념입니다.
データや画像・音声に含まれる不要な雑音成分を除去する処理。機械学習では前処理として精度向上に不可欠であり、オートエンコーダなどが活用される。
데이터나 이미지·음성에 포함된 불필요한 잡음 성분을 제거하는 처리. 머신러닝에서는 전처리로서 정확도 향상에 필수적이며, 오토인코더 등이 활용된다.
LLMにおける入出力テキストをトークン単位で管理・課金する仕組み。APIコスト最適化やプロンプト設計において、トークン消費量を意識した実装が重要になる。
LLM에서 입출력 텍스트를 토큰 단위로 관리하고 과금하는 체계. API 비용 최적화와 프롬프트 설계 시 토큰 소비량을 고려한 구현이 중요하다.
障害のあるユーザーも含め、すべての人がAIツールやサービスを利用できるようにするための設計・実装方針。音声操作、スクリーンリーダー対応、代替入力手段などの整備が含まれる。
장애가 있는 사용자를 포함하여 모든 사람이 AI 도구나 서비스를 이용할 수 있도록 하는 설계 및 구현 방침이다. 음성 조작, 스크린 리더 대응, 대체 입력 수단 등의 정비가 포함된다.
AIモデルのプログラムコード生成能力を定量的に評価する指標群。HumanEvalやMBPPなどのベンチマークでPass@k率を測定し、モデル間の性能を比較する。
AI 모델의 프로그램 코드 생성 능력을 정량적으로 평가하는 지표군. HumanEval이나 MBPP 등의 벤치마크에서 Pass@k율을 측정하여 모델 간 성능을 비교한다.
LLM推論の高速化技術で、小型モデルが複数トークンを先行生成し、大型モデルが並列検証することで推論速度を向上させる手法。
LLM 추론 속도를 높이는 기술로, 소형 모델이 여러 토큰을 미리 생성하고 대형 모델이 병렬로 검증함으로써 추론 속도를 향상시키는 방법이다.
モデルの内部表現空間に特定のベクトルを加算して出力の傾向を制御する技術。ファインチューニングなしでモデルの振る舞いを特定方向に誘導でき、安全性や応答スタイルの調整に使われる。
모델의 내부 표현 공간에 특정 벡터를 가산하여 출력의 경향을 제어하는 기술이다. 파인튜닝 없이 모델의 동작을 특정 방향으로 유도할 수 있으며 안전성이나 응답 스타일 조정에 사용된다.
テキストや画像をベクトル化し、コサイン類似度やユークリッド距離に基づいて近傍データを高速に検索する技術。RAGやレコメンドシステムの基盤として広く活用されている。
텍스트나 이미지를 벡터화하여 코사인 유사도 등을 기반으로 근접 데이터를 고속 검색하는 기술이다. RAG나 추천 시스템의 기반으로 널리 활용되고 있다.
高レベルなプロンプト記述を最適化された実行可能なプロンプトに変換するツール。変数展開、条件分岐、テンプレート合成などを処理し、プロンプトの再利用性と保守性を向上させる。
고수준 프롬프트 기술을 최적화된 실행 가능한 프롬프트로 변환하는 도구이다. 변수 전개, 조건 분기, 템플릿 합성 등을 처리하여 프롬프트의 재사용성과 유지보수성을 향상시킨다.
事前に収集されたデータセットのみを使用して強化学習を行う手法。環境との直接的なインタラクションを必要とせず、過去のログデータから最適な方策を学習する安全なアプローチである。
사전에 수집된 데이터셋만을 사용하여 강화 학습을 수행하는 기법. 환경과의 직접적인 인터랙션을 필요로 하지 않으며, 과거 로그 데이터로부터 최적 정책을 학습하는 안전한 접근법이다.
推論(Reasoning)と行動(Acting)を交互に繰り返すAIエージェントの設計パターン。思考過程を明示的に出力してからツール呼び出しを行い、その結果を次の推論に反映させる手法である。
추론(Reasoning)과 행동(Acting)을 교대로 반복하는 AI 에이전트 설계 패턴이다. 사고 과정을 명시적으로 출력한 후 도구 호출을 수행하고 그 결과를 다음 추론에 반영하는 기법이다.
AIを活用してコードの品質・バグ・セキュリティリスクを自動検出するレビュー手法。GitHub CopilotやCodeRabbitなどのツールが代表的で、PR単位での自動フィードバックが可能。
AI를 활용하여 코드의 품질·버그·보안 리스크를 자동으로 감지하는 리뷰 기법. GitHub Copilot, CodeRabbit 등의 도구가 대표적이며, PR 단위로 자동 피드백이 가능하다.
テキストの説明文を入力するだけで動画を自動生成するAI技術。Sora、RunwayなどのモデルがAPIやGUIで提供されており、映像制作の自動化に活用される。
텍스트 설명을 입력하면 동영상을 자동으로 생성하는 AI 기술. Sora, Runway 등의 모델이 API나 GUI 형태로 제공되며 영상 제작 자동화에 활용된다.
人間の作業を補助するAIアシスタントの総称で、コード生成やドキュメント作成などの知的作業を協調的に支援する。ユーザーの意図を汲み取り、リアルタイムで提案や自動補完を行う。
인간의 작업을 보조하는 AI 어시스턴트의 총칭으로, 코드 생성이나 문서 작성 등의 지적 작업을 협조적으로 지원한다. 사용자의 의도를 파악하여 실시간으로 제안이나 자동 완성을 수행한다.
人間には知覚できない微小なノイズを入力データに加えることで、モデルの予測を意図的に誤らせる攻撃手法。画像認識や自然言語処理において、モデルのロバスト性評価に重要な概念である。
인간에게는 감지할 수 없는 미세한 노이즈를 입력 데이터에 추가하여 모델의 예측을 의도적으로 오인시키는 공격 기법이다. 이미지 인식이나 자연어 처리에서 모델의 로버스트성 평가에 중요한 개념이다.
教師モデルのソフトラベル出力と生徒モデルの出力の差異を測定する損失関数。KLダイバージェンスを用いて教師モデルの暗黙知を生徒モデルに効率的に伝達し、精度劣化を最小化する。
교사 모델의 소프트 레이블 출력과 학생 모델의 출력 차이를 측정하는 손실 함수이다. KL 다이버전스를 사용하여 교사 모델의 암묵지를 학생 모델에 효율적으로 전달하고 정확도 열화를 최소화한다.
入力データをエンコーダーで低次元に圧縮し、デコーダーで復元するニューラルネットワーク。次元削減・特徴抽出・異常検知などに活用され、VAEなど多くの派生型が存在する。
입력 데이터를 인코더로 저차원에 압축하고 디코더로 복원하는 신경망이다. 차원 축소·특징 추출·이상 탐지 등에 활용되며, VAE 등 다양한 파생형이 존재한다.
AIモデルの開発から運用までに必要なデータ・モデル・インフラなどの一連の供給体制。サードパーティモデルやデータセットの依存関係・ライセンス・脆弱性の管理が重要になる。
AI 모델의 개발부터 운용까지 필요한 데이터, 모델, 인프라 등의 일련의 공급 체제이다. 서드파티 모델이나 데이터셋의 의존 관계, 라이선스, 취약성을 체계적으로 관리하는 것이 중요한 과제가 된다.
AIエージェントが複数のツールを適切な順序・組み合わせで実行するための調整メカニズム。ツール間の依存関係やエラーハンドリングを管理し、複雑なタスクを効率的に完遂する。
AI 에이전트가 복수의 도구를 적절한 순서·조합으로 실행하기 위한 조정 메커니즘이다. 도구 간 의존 관계와 에러 핸들링을 관리하여 복잡한 태스크를 효율적으로 완수한다.
特定のデータがモデルの学習データに含まれていたかを推論する攻撃手法。モデルの出力の確信度の違いを利用して学習データの有無を判定し、プライバシー侵害のリスクを引き起こす。
특정 데이터가 모델의 학습 데이터에 포함되어 있었는지를 추론하는 공격 기법이다. 모델 출력의 확신도 차이를 이용하여 학습 데이터 포함 여부를 판정하며, 프라이버시 침해 리스크를 초래한다.
人間の評価・フィードバックを報酬信号として活用し、AIモデルを人間の意図や価値観に沿った出力へ最適化する強化学習手法。RLHFとも呼ばれ、ChatGPTなどの大規模言語モデルのファインチューニングに広く採用されている。
인간의 평가 및 피드백을 보상 신호로 활용하여 AI 모델을 인간의 의도와 가치관에 맞는 출력으로 최적화하는 강화학습 기법이다. RLHF라고도 불리며, ChatGPT 등 대규모 언어 모델의 파인튜닝에 널리 활용되고 있다.
実データの統計的特性を模倣してアルゴリズムで生成した人工データ。プライバシー保護やデータ不足の解消、機械学習モデルの学習用途に活用される。
실제 데이터의 통계적 특성을 모방하여 알고리즘으로 생성한 인공 데이터. 개인정보 보호, 데이터 부족 해소, 머신러닝 모델 학습 등의 목적으로 활용된다.
モデルがデータを逐次的にリアルタイムで学習・更新する手法。全データを一括で学習するバッチ学習と対比され、ストリーミングデータや変化する環境に適している。
모델이 데이터를 순차적으로 실시간 학습·갱신하는 기법. 전체 데이터를 일괄 학습하는 배치 학습과 대비되며, 스트리밍 데이터나 변화하는 환경에 적합하다.
事前の例示を一切与えずにタスクを遂行するプロンプトベースの学習方式。モデルが大規模な事前学習で獲得した知識のみを活用して未知のタスクに対応するため、高い汎用性を備えている。
사전 예시를 전혀 제공하지 않고 태스크를 수행하는 학습 방식이다. 모델이 대규모 사전 학습에서 획득한 지식만을 활용하여 미지의 태스크에 대응하므로 높은 범용성을 갖추고 있다.
学習済みAIモデルをAPIなどを通じて外部から呼び出せる状態にデプロイし、推論結果をリアルタイムまたはバッチで提供するプロセス。
학습된 AI 모델을 API 등을 통해 외부에서 호출할 수 있도록 배포하고, 추론 결과를 실시간 또는 배치로 제공하는 프로세스.
テキストを自然な音声に変換するAIモデル。TTS(Text-to-Speech)とも呼ばれ、WaveNetやTacotronなどの深層学習ベースの手法が主流。音声アシスタントや読み上げ機能に広く活用される。
텍스트를 자연스러운 음성으로 변환하는 AI 모델. TTS(Text-to-Speech)라고도 불리며, WaveNet이나 Tacotron 등 딥러닝 기반 방식이 주류. 음성 어시스턴트 및 읽기 기능에 널리 활용된다.
AIモデルの性能・限界・意図された用途・倫理的配慮などを簡潔にまとめた標準化文書。モデルの透明性を向上させ、利用者が適切にリスクを理解した上で使用できるようにするための情報開示ツールである。
AI 모델의 성능·한계·의도된 용도·윤리적 배려 등을 간결하게 정리한 표준화 문서이다. 모델의 투명성을 향상시켜 이용자가 리스크를 적절히 이해한 후 사용할 수 있도록 하는 정보 공개 도구이다.
LoRAの改良版で、低ランクアダプタ行列AとBに異なる学習率を設定する手法。Bの学習率をAより高くすることで、標準LoRAの学習効率と最終精度を大幅に向上させる。
LoRA의 개량판으로 저랭크 어댑터 행렬 A와 B에 서로 다른 학습률을 설정하는 기법이다. B의 학습률을 A보다 높게 설정하여 표준 LoRA의 학습 효율과 최종 정확도를 대폭 향상시킨다.
AIシステムの開発・運用における倫理・リスク管理・透明性確保のための組織的な方針・ルール・プロセスの枠組み。企業や政府機関が責任あるAI利活用を推進するために整備する。
AI 시스템의 개발 및 운영에 있어 윤리, 리스크 관리, 투명성 확보를 위한 조직적인 방침·규칙·프로세스의 체계. 기업이나 정부 기관이 책임 있는 AI 활용을 추진하기 위해 정비한다.
AIを活用して業務フロー全体を自動化する手法。データ収集・判断・処理・通知などの一連のタスクをAIエージェントやLLMが自律的に実行し、人的工数を削減する。
AI를 활용하여 업무 흐름 전체를 자동화하는 방법론. 데이터 수집·판단·처리·알림 등 일련의 작업을 AI 에이전트나 LLM이 자율적으로 실행하여 인적 공수를 줄인다.
大規模言語モデル(LLM)の開発・デプロイ・監視・運用を効率化するための実践手法やツール群。MLOpsをLLM特有の課題に対応させた概念。
대규모 언어 모델(LLM)의 개발·배포·모니터링·운영을 효율화하기 위한 실천 방법론 및 툴 집합. MLOps를 LLM 특유의 과제에 대응시킨 개념.
AIシステムが意図しない有害な動作をしないよう設計・運用段階で安全性を確保するための研究分野。アライメント、ロバスト性、敵対的攻撃への耐性などの課題を包括的に扱っている。
AI 시스템이 의도치 않은 유해한 동작을 하지 않도록 안전성을 확보하기 위한 연구 분야이다. 얼라인먼트, 로버스트성, 적대적 공격 내성 등의 과제를 포괄적으로 다루고 있다.
テキスト・画像などのデータを高次元のベクトル空間に変換する技術。意味的な類似度を数値で表現でき、検索や推薦システムなどに活用される。
텍스트·이미지 등의 데이터를 고차원 벡터 공간으로 변환하는 기술. 의미적 유사도를 수치로 표현할 수 있으며, 검색이나 추천 시스템 등에 활용된다.
ニューラルネットワークの各レイヤーの出力を正規化する手法。バッチ正規化とは異なりバッチサイズに依存せず、Transformerアーキテクチャでは標準的に採用されている。
뉴럴 네트워크의 각 레이어 출력을 정규화하는 기법이다. 배치 정규화와 달리 배치 크기에 의존하지 않으며 Transformer 아키텍처에서 표준적으로 채택되고 있다.
AIの応答を自己批判・自己修正のプロセスで改善するフレームワーク。事前に定義した原則(憲法)に基づきモデル自身が出力を評価・修正し、人間のフィードバックへの依存を軽減する。
AI의 응답을 자기 비판·자기 수정 프로세스로 개선하는 프레임워크이다. 사전에 정의한 원칙(헌법)에 기반하여 모델 자신이 출력을 평가·수정하고 인간 피드백에 대한 의존을 경감한다.
モデルサイズ・データ量・計算量の関係を定量的に示すスケーリング則を、モデル開発の計画や予算策定に実践的に応用する手法。最適なリソース配分の決定を科学的に支援する。
모델 크기, 데이터량, 연산량의 관계를 정량적으로 나타내는 스케일링 법칙을 모델 개발 계획이나 예산 수립에 실천적으로 응용하는 기법이다. 최적의 리소스 배분 결정을 과학적으로 지원한다.
Generative Adversarial Networkの略。生成器と識別器が互いに競合しながら学習する深層学習モデル。画像生成やデータ拡張などに広く活用される。
Generative Adversarial Network의 약자. 생성기와 판별기가 서로 경쟁하며 학습하는 딥러닝 모델로, 이미지 생성 및 데이터 증강 등에 널리 활용된다.
AIシステムが意図しない有害な動作をしないか検証するテスト手法。バイアス検出・ロバスト性評価・敵対的入力への耐性確認などを含み、本番リリース前に必須とされる。
AI 시스템이 의도치 않은 유해한 동작을 하지 않는지 검증하는 테스트 기법. 편향 탐지, 견고성 평가, 적대적 입력에 대한 내성 확인 등을 포함하며 프로덕션 배포 전 필수로 수행된다.
LLMに段階的な推論過程を明示的に出力させることで、複雑な問題の回答精度を向上させるプロンプト技法。数学的推論や論理的思考を要するタスクで特に有効とされている。
LLM에 단계적인 추론 과정을 명시적으로 출력하게 함으로써 복잡한 문제의 응답 정확도를 향상시키는 프롬프트 기법. 수학적 추론이나 논리적 사고가 필요한 태스크에서 특히 유효하다.
AIシステムが会話履歴や文脈情報を保持・管理する仕組み。LLMにおいてセッション間の記憶を維持し、より自然な継続的対話を実現するための技術。
AI 시스템이 대화 이력과 문맥 정보를 유지·관리하는 메커니즘. LLM에서 세션 간 기억을 유지하여 보다 자연스러운 지속적 대화를 실현하는 기술.
高次元データの特徴を保ちながら低次元に変換する手法。PCAやt-SNEなどが代表的で、機械学習の前処理や可視化に活用される。
고차원 데이터의 특징을 유지하면서 저차원으로 변환하는 기법. PCA, t-SNE 등이 대표적이며, 머신러닝 전처리 및 시각화에 활용된다.
あるタスクで学習済みのモデルを別のタスクに応用する機械学習手法。大量データがなくても高精度なモデルを構築でき、ファインチューニングと組み合わせて使われることが多い。
특정 태스크에서 학습된 모델을 다른 태스크에 응용하는 머신러닝 기법. 대량의 데이터 없이도 높은 정확도의 모델을 구축할 수 있으며, 파인튜닝과 함께 사용되는 경우가 많다.
自然言語でユーザーと対話するAIアプリケーション。LLMの登場により高度な文脈理解が可能になり、カスタマーサポートや社内ヘルプデスクなど幅広い分野で導入されている。
자연어로 사용자와 대화하는 AI 애플리케이션이다. LLM의 등장으로 고도의 문맥 이해가 가능해져 고객 지원이나 사내 헬프데스크 등 폭넓은 분야에서 도입되고 있다.
少数のサンプルデータからモデルが学習・推論できる手法。GPT等のLLMではプロンプトに数例を示すことで精度向上が期待できる。
소수의 샘플 데이터로 모델이 학습 및 추론할 수 있는 기법. GPT 등의 LLM에서는 프롬프트에 몇 가지 예시를 제공함으로써 정확도 향상을 기대할 수 있다.
複数ラウンドにわたるユーザーとAIの対話のコンテキストを効率的に管理する技術。会話履歴の要約、関連コンテキストの選択、メモリ管理を行い、一貫性のある応答を維持する仕組みとして重要である。
여러 라운드에 걸친 사용자와 AI 대화의 컨텍스트를 효율적으로 관리하는 기술이다. 대화 이력 요약, 관련 컨텍스트 선택, 메모리 관리를 수행하여 일관성 있는 응답을 유지하는 구조이다.
AIモデルの学習・推論パイプライン全体を効率化する取り組み。データ前処理からモデル配信までの各段階でボトルネックを特定し改善する。
AI 모델의 학습·추론 파이프라인 전체를 효율화하는 작업. 데이터 전처리부터 모델 배포까지 각 단계에서 병목을 식별하고 개선한다.
外部ツールやAPIを自律的に呼び出して目的を達成するAIエージェントの能力。Web検索・コード実行・DB操作などを組み合わせて複雑なタスクを処理する。
외부 툴이나 API를 자율적으로 호출하여 목적을 달성하는 AI 에이전트의 능력. 웹 검색·코드 실행·DB 조작 등을 조합하여 복잡한 작업을 처리한다.
LLMの推論をプレフィル(入力処理)フェーズとデコード(トークン生成)フェーズに分割して別々のGPUで実行する手法。各フェーズの計算特性に最適化したリソース配分が可能になる技術である。
LLM 추론을 프리필(입력 처리) 단계와 디코드(토큰 생성) 단계로 분할하여 별도의 GPU에서 실행하는 기법이다. 각 단계의 계산 특성에 최적화된 리소스 배분이 가능해지는 기술이다.
AIモデルが入力データに対して予測・出力を生成する際に発生する計算コスト。主にLLMやAPI呼び出し時のトークン数・GPU使用量に基づいて課金される。
AI 모델이 입력 데이터에 대해 예측·출력을 생성할 때 발생하는 계산 비용. 주로 LLM이나 API 호출 시 토큰 수·GPU 사용량을 기준으로 과금된다.
AIシステムの目標・行動・価値観を人間の意図や倫理観と一致させる研究分野。AGI開発における安全性確保の観点から特に重要視されている。
AI 시스템의 목표·행동·가치관을 인간의 의도 및 윤리관과 일치시키는 연구 분야로, AGI 개발의 안전성 확보 측면에서 특히 중요하게 다뤄진다.
Transformerモデルにトークンの位置情報を付与する仕組み。正弦波関数やRoPE(回転位置エンコーディング)などの手法があり、シーケンス内の語順理解に不可欠な要素である。
Transformer 모델에 토큰의 위치 정보를 부여하는 구조. 정현파 함수나 RoPE(회전 위치 인코딩) 등의 기법이 있으며, 시퀀스 내 어순 이해에 불가결한 요소이다.
モデルの全パラメータではなく少数の追加パラメータのみを学習させるファインチューニング手法の総称。LoRA、Adapter、Prefix Tuningなどが含まれ、計算資源とメモリの大幅な節約が可能である。
모델의 전체 파라미터가 아닌 소수의 추가 파라미터만 학습시키는 파인튜닝 기법의 총칭이다. LoRA, Adapter, Prefix Tuning 등이 포함되며 계산 자원과 메모리를 대폭 절약하는 기술이다.
Parameter-Efficient Fine-Tuning。LLMの全パラメータではなく少数のパラメータのみを更新してファインチューニングする技術群。LoRAやPrefix Tuningなどが含まれる。
파라미터 효율적 파인튜닝. LLM의 전체 파라미터가 아닌 소수 파라미터만 업데이트하여 파인튜닝하는 기술군. LoRA, Prefix Tuning 등이 포함된다.
推論時にモデルのパラメータや計算量を入力に応じて動的に調整し、効率と品質のバランスを取る最適化手法。複数回のサンプリングや検証ステップの追加で難問への正答率を向上させる。
추론 시 모델의 파라미터나 연산량을 입력에 따라 동적으로 조정하여 효율과 품질의 균형을 맞추는 최적화 기법이다. 복수 회 샘플링이나 검증 단계를 추가하여 난제의 정답률이 향상된다.
AIシステムの公平性・透明性・安全性・法令遵守を第三者が体系的に評価する取り組み。バイアスの検出、説明可能性の確認、規制要件への準拠状況などを包括的に検証し報告書を作成する。
AI 시스템의 공정성·투명성·안전성·법령 준수를 제3자가 체계적으로 평가하는 활동이다. 편향 검출, 설명 가능성 확인, 규제 요건 준수 상황 등을 포괄적으로 검증하여 보고서를 작성한다.
類似するトークンを統合して入力シーケンスの長さを削減する手法。Vision Transformerなどで冗長なパッチトークンを削減し、計算コストを抑えながら精度を維持する。
유사한 토큰을 통합하여 입력 시퀀스 길이를 줄이는 기법이다. Vision Transformer 등에서 중복 패치 토큰을 줄여 계산 비용을 억제하면서 정확도를 유지한다.
ユーザーの行動履歴や属性データをもとに、最適なコンテンツや商品を自動で提案するシステム。協調フィルタリングやコンテンツベースフィルタリングなどの手法が用いられる。
사용자의 행동 이력과 속성 데이터를 기반으로 최적의 콘텐츠나 상품을 자동으로 제안하는 시스템. 협업 필터링이나 콘텐츠 기반 필터링 등의 기법이 사용된다.
LLMに入力するコンテキスト情報を要約・圧縮してトークン数を削減する技術。長文入力時のコスト削減と処理速度向上に有効である。
LLM에 입력하는 컨텍스트 정보를 요약·압축하여 토큰 수를 줄이는 기술. 긴 입력 시 비용 절감과 처리 속도 향상에 효과적이다.
悪意あるテキストをプロンプトに埋め込み、LLMに意図しない動作をさせる攻撃手法。AIシステムのセキュリティ上の重大な脅威として注目されている。
악의적인 텍스트를 프롬프트에 삽입하여 LLM이 의도하지 않은 동작을 하도록 유도하는 공격 기법으로, AI 시스템의 중대한 보안 위협으로 주목받고 있다.
AIや統計モデルを用いた機械翻訳の翻訳品質を高める取り組み。BLEU スコアなどの評価指標を用いてモデルのチューニングやデータ拡張を行い、翻訳精度を改善するプロセス。
AI 및 통계 모델을 활용한 기계 번역의 번역 품질을 높이는 작업. BLEU 스코어 등의 평가 지표를 활용해 모델 튜닝 및 데이터 증강을 수행하여 번역 정확도를 개선하는 프로세스.
AIが自然言語の指示を受けてコードを生成・実行し、結果を返す機能。ChatGPTのCode Interpreterが代表例で、データ分析や可視化をその場で実行できる。
AI가 자연어 지시를 받아 코드를 생성·실행하고 결과를 반환하는 기능. ChatGPT의 Code Interpreter가 대표적이며, 데이터 분석 및 시각화를 즉석에서 실행할 수 있다.
機械学習モデルのバージョン、メタデータ、学習時のパラメータなどを一元管理するシステム。MLOpsにおいてモデルのライフサイクル管理の中核を担う。
머신러닝 모델의 버전, 메타데이터, 학습 시 파라미터 등을 중앙에서 관리하는 시스템. MLOps에서 모델의 수명 주기 관리의 핵심을 담당한다.
テキストをトークン単位に分割するトークナイザーの設計。語彙サイズ・分割粒度・特殊トークンの定義など、NLPモデルの性能に直結する重要な設計工程。
텍스트를 토큰 단위로 분할하는 토크나이저 설계. 어휘 크기·분할 단위·특수 토큰 정의 등 NLP 모델 성능에 직결되는 중요한 설계 과정이다.
AIモデルの出力を人間の意図や価値観に合致させるための技術・プロセスの総称。RLHFやDPOなどの手法を用いて、安全で有用な応答を生成するようモデルを調整する。
AI 모델의 출력을 인간의 의도와 가치관에 부합시키는 기술 및 프로세스의 총칭이다. RLHF나 DPO 등의 기법을 통해 안전하고 유용한 응답을 생성하도록 모델을 조정한다.
AIモデルの性能を定量的に測定するための指標。精度・再現率・F1スコア・AUCなどがあり、タスクに応じて適切な指標を選択することが重要。
AI 모델의 성능을 정량적으로 측정하기 위한 지표. 정확도·재현율·F1 스코어·AUC 등이 있으며, 태스크에 따라 적절한 지표를 선택하는 것이 중요하다.
テキスト・画像・音声・動画など複数の入力形式を同時に扱えるAIの能力や技術。GPT-4Vのように画像とテキストを統合的に理解・生成するモデルが代表的な実装例である。
텍스트·이미지·음성·동영상 등 여러 입력 형식을 동시에 처리할 수 있는 AI의 능력 및 기술이다. GPT-4V처럼 이미지와 텍스트를 통합적으로 이해·생성하는 모델이 대표적인 구현 사례이다.
Googleが開発した双方向Transformerベースの事前学習言語モデル。文脈を双方向に理解するため、文章分類・固有表現抽出・QAなど多様なNLPタスクで高精度を発揮する。
Google이 개발한 양방향 Transformer 기반 사전 학습 언어 모델. 문맥을 양방향으로 이해하여 문장 분류·개체명 인식·QA 등 다양한 NLP 태스크에서 높은 정확도를 발휘한다.
Transformerモデルにおいて、トークンの順序情報を埋め込むための手法。RNNと異なり並列処理するTransformerは位置情報を持たないため、sincos関数などで位置を数値表現として付加する。
Transformer 모델에서 토큰의 순서 정보를 임베딩하기 위한 기법. RNN과 달리 병렬 처리하는 Transformer는 위치 정보가 없어 sin/cos 함수 등으로 위치를 수치 표현으로 부가한다.
入力に応じて一部の専門家ネットワークのみを活性化するアーキテクチャ。全パラメータを使わず一部だけ使うため、モデル容量を増やしながら計算コストを抑えることができる設計である。
입력에 따라 일부 전문가 네트워크만 활성화하는 아키텍처이다. 전체 파라미터를 사용하지 않고 일부만 사용하므로 모델 용량을 늘리면서 계산 비용을 억제할 수 있는 설계이다.
強化学習においてエージェントが報酬関数の抜け穴を悪用し、設計者の意図とは異なる方法で高い報酬を得てしまう問題。AI安全性研究の重要な課題であり、報酬設計の改善が求められる。
강화학습에서 에이전트가 보상 함수의 허점을 악용하여 설계자의 의도와 다른 방법으로 높은 보상을 얻는 문제이다. AI 안전성 연구의 중요한 과제이며 보상 설계 개선이 요구된다.
複数のGPUを搭載したサーバーをネットワークで連結し、大規模な並列計算を行うシステム。深層学習の分散トレーニングやLLM学習基盤として広く活用される。
여러 GPU를 탑재한 서버를 네트워크로 연결하여 대규모 병렬 계산을 수행하는 시스템. 딥러닝 분산 학습이나 LLM 학습 인프라로 널리 활용된다.
大規模な教師モデルの出力確率分布を模倣するように小型の生徒モデルを訓練する圧縮技法。ハードラベルだけでなくソフトラベルも活用することで、パラメータ数を大幅に削減しつつ性能を維持できる。
대규모 교사 모델의 출력 확률 분포를 모방하도록 소형 학생 모델을 훈련하는 압축 기법이다. 하드 라벨뿐 아니라 소프트 라벨도 활용하여 파라미터 수를 대폭 줄이면서 성능을 유지할 수 있다.
AI APIの利用料金やGPUコストを予算内に収めるための管理手法。使用量の監視、モデル選定の最適化、キャッシュ活用などを行う。
AI API 이용 요금이나 GPU 비용을 예산 내로 유지하기 위한 관리 기법. 사용량 감시, 모델 선정 최적화, 캐시 활용 등을 수행한다.
環境のダイナミクスを内部的にシミュレーションするモデルで、実際の環境と相互作用せずに将来の状態を予測できる。エージェントが仮想的に行動を試行し計画を立てることを可能にする技術である。
환경의 역학을 내부적으로 시뮬레이션하는 모델로, 실제 환경과 상호작용하지 않고 미래 상태를 예측할 수 있다. 에이전트가 가상으로 행동을 시도하고 계획을 세울 수 있게 하는 기술이다.
LLMを活用したアプリケーション構築フレームワーク。チェーン・エージェント・メモリ・ツール連携などのコンポーネントを提供し、RAGやチャットボット開発を効率化する。
LLM을 활용한 애플리케이션 구축 프레임워크. 체인·에이전트·메모리·툴 연계 등의 컴포넌트를 제공하며, RAG 및 챗봇 개발을 효율화한다.
強化学習においてエージェントが報酬関数の意図しない抜け穴を利用し、本来の目的とは異なる方法で高い報酬を獲得する現象。RLHFにおけるAIアラインメントの重要課題の一つである。
강화 학습에서 에이전트가 보상 함수의 의도하지 않은 허점을 이용하여 본래 목적과 다른 방법으로 높은 보상을 획득하는 현상이다. RLHF에서의 AI 얼라인먼트 중요 과제 중 하나이다.
LLMを別のLLMの出力品質を評価する審判として使用する手法。人間による評価のコストを削減しながら、一貫性のある自動評価を実現する。LLM-as-a-Judgeとも呼ばれる。
LLM을 다른 LLM의 출력 품질을 평가하는 심판으로 사용하는 기법이다. 인간 평가 비용을 절감하면서 일관성 있는 자동 평가를 실현한다. LLM-as-a-Judge라고도 불린다.
LLMが外部ツールやAPIを呼び出して情報取得や処理を行う機能。検索・計算・コード実行など、モデル単体では対応困難なタスクを補完する。
LLM이 외부 툴이나 API를 호출하여 정보 조회나 처리를 수행하는 기능. 검색, 계산, 코드 실행 등 모델 단독으로 처리하기 어려운 작업을 보완한다.
AI学習・推論時に個人情報や機密データを適切に保護するための技術・運用方針。差分プライバシーやデータ匿名化などの手法を含む。
AI 학습·추론 시 개인정보나 기밀 데이터를 적절히 보호하기 위한 기술·운영 방침. 차분 프라이버시와 데이터 익명화 등의 기법을 포함한다.
機械学習モデルの精度向上のため、生データから有用な特徴量を選択・変換・生成するプロセス。モデルの性能を左右する重要な前処理工程。
머신러닝 모델의 정확도 향상을 위해 원시 데이터에서 유용한 피처를 선택·변환·생성하는 프로세스. 모델 성능을 좌우하는 중요한 전처리 단계.
音声データから「誰が話しているか」を特定する技術。Speaker Identificationとも呼ばれ、声紋の特徴量を学習モデルで照合し、登録済み話者を識別する。
음성 데이터에서 '누가 말하고 있는지'를 특정하는 기술. Speaker Identification이라고도 하며, 성문 특징량을 학습 모델로 대조해 등록된 화자를 식별한다.
LLMで生成された合成データの品質・多様性・バイアスを体系的に検証するプロセス。実データとの分布比較や下流タスクでの性能評価により、合成データの信頼性を確実に担保する。
LLM으로 생성된 합성 데이터의 품질·다양성·바이어스를 체계적으로 검증하는 프로세스이다. 실 데이터와의 분포 비교나 하류 태스크에서의 성능 평가로 합성 데이터의 신뢰성을 확실히 담보한다.
機械学習やディープラーニングを用いて、画像内の物体・人物・テキストなどをコンピュータが自動で識別・分類する技術。CNNが広く利用される。
머신러닝이나 딥러닝을 활용해 이미지 내의 사물·인물·텍스트 등을 컴퓨터가 자동으로 식별·분류하는 기술로, CNN이 널리 사용된다.
テキスト・画像・音声など複数のデータ形式を同時に処理して推論を行う技術。GPT-4VやGeminiなどのモデルが対応している。
텍스트·이미지·음성 등 복수의 데이터 형식을 동시에 처리하여 추론을 수행하는 기술. GPT-4V나 Gemini 등의 모델이 지원한다.
AIの判断根拠や推論過程を人間が理解・検証できるよう可視化・言語化して説明する技術。XAIとも呼ばれ、金融や医療など高い説明責任が求められる分野での導入に不可欠である。
AI의 판단 근거와 추론 과정을 인간이 이해·검증할 수 있도록 시각화·설명하는 기술이다. XAI라고도 불리며, 금융이나 의료 등 높은 설명 책임이 요구되는 분야 도입에 필수적이다.
個人情報やセンシティブデータを保護しながらAIモデルの学習・推論を行う技術の総称。差分プライバシーや連合学習、準同型暗号などの手法を組み合わせてデータの機密性を確保する。
개인정보나 민감한 데이터를 보호하면서 AI 모델의 학습·추론을 수행하는 기술의 총칭이다. 차분 프라이버시나 연합 학습, 준동형 암호 등의 기법을 조합하여 데이터의 기밀성을 확보한다.
コンテキストウィンドウとも呼ばれる。LLMが一度の入出力(プロンプト+回答)で処理・記憶できる最大トークン数のこと。これを超えると古い情報から忘れられてしまう。
컨텍스트 윈도우라고도 불린다. LLM이 한 번의 입출력(프롬프트+답변)에서 처리하고 기억할 수 있는 최대 토큰 수. 이를 초과하면 오래된 정보부터 잊어버리게 된다.
AIモデルや学習データに含まれる不公平な偏りを検出するプロセス。性別・人種・年齢などの属性に対する差別的な予測傾向を特定し、モデルの公平性を担保するために実施する。
AI 모델이나 학습 데이터에 포함된 불공정한 편향을 탐지하는 프로세스. 성별·인종·나이 등의 속성에 대한 차별적인 예측 경향을 식별하고, 모델의 공정성을 확보하기 위해 수행한다.
LLMが一度に処理できるトークン数の上限。入力プロンプトと出力を合わせた範囲で、サイズが大きいほど長い会話履歴や文書を扱える。
LLM이 한 번에 처리할 수 있는 토큰 수의 상한선. 입력 프롬프트와 출력을 합산한 범위로, 크기가 클수록 긴 대화 이력이나 문서를 처리할 수 있다.
AIモデルが自然言語テキストを自動的に生成する技術の総称。LLMの中核機能であり、要約・翻訳・対話・コンテンツ作成など幅広いタスクの基盤技術として活用されている。
AI 모델이 자연어 텍스트를 자동으로 생성하는 기술이다. LLM의 핵심 기능이며, 요약·번역·대화·콘텐츠 작성 등 폭넓은 태스크의 기반 기술로 활용되고 있다.
単語・文章・画像などのデータを、AIが処理しやすい多次元の数値ベクトルに変換する技術。意味的に似ているデータほど、ベクトル空間上で近い位置に配置される。
단어·문장·이미지 등의 데이터를 AI가 처리하기 쉬운 다차원 수치 벡터로 변환하는 기술. 의미적으로 비슷한 데이터일수록 벡터 공간상에서 가까운 위치에 배치된다.
クエリと文書をそれぞれ独立したエンコーダーでベクトル化し、類似度計算で検索を行うモデル構造。文書ベクトルを事前計算できるため、大規模な意味検索において高速な検索を実現する。
쿼리와 문서를 각각 독립된 인코더로 벡터화하여 유사도 계산으로 검색을 수행하는 모델 구조. 문서 벡터를 사전 계산할 수 있어 대규모 의미 검색에서 고속 검색을 실현한다.
対話システムにおいて過去の会話履歴を効率的に管理・参照するメモリ機構。サマリーメモリ、バッファメモリ、ベクトルメモリなどの方式があり、長期にわたる対話の一貫性を維持する。
대화 시스템에서 과거 대화 이력을 효율적으로 관리·참조하는 메모리 기구이다. 요약 메모리, 버퍼 메모리, 벡터 메모리 등의 방식이 있으며 장기에 걸친 대화의 일관성을 유지한다.
組織全体でAIの開発・運用を適切に管理するための枠組み。リスク評価、承認プロセス、監査体制などを体系的に定義する。
조직 전체에서 AI 개발·운영을 적절히 관리하기 위한 프레임워크. 리스크 평가, 승인 프로세스, 감사 체제 등을 체계적으로 정의한다.
RAG(Retrieval-Augmented Generation)システムの評価フレームワーク。忠実性・回答関連性・コンテキスト適合性などの指標でRAGパイプラインの品質を自動評価する。
RAG 시스템 평가 프레임워크. 충실성·답변 관련성·컨텍스트 적합성 등의 지표로 RAG 파이프라인의 품질을 자동 평가한다.
知識グラフとRAGを組み合わせて、エンティティ間の関係性を考慮した情報検索・回答生成を行う手法。単純なベクトル検索では見つけにくい複雑な関連情報を統合的に取得できる拡張技術である。
지식 그래프와 RAG를 결합하여 엔티티 간 관계성을 고려한 정보 검색·답변 생성을 수행하는 기법이다. 단순한 벡터 검색으로는 찾기 어려운 복잡한 관련 정보를 통합적으로 취득할 수 있는 확장 기술이다.
LLMの出力品質を自動化されたパイプラインで体系的に評価する仕組み。正確性・有害性・一貫性など複数の観点でスコアリングし、モデル更新時のリグレッション検出に活用する。
LLM의 출력 품질을 자동화된 파이프라인으로 체계적으로 평가하는 구조. 정확성·유해성·일관성 등 여러 관점에서 스코어링하며, 모델 갱신 시 리그레션 검출에 활용한다.
LLMで生成した合成データの品質を自動評価し、低品質なサンプルを除外するプロセス。学習データの品質を担保してモデルのファインチューニング効果を高め、学習の安定性を確保する。
LLM으로 생성한 합성 데이터의 품질을 자동 평가하여 저품질 샘플을 제외하는 프로세스이다. 학습 데이터의 품질을 확보하여 모델의 파인튜닝 효과를 높이고 학습의 안정성을 확보한다.
LLMを活用した対話型インターフェースの設計手法。ユーザー体験、フォールバック処理、コンテキスト管理などを総合的に設計する。
LLM을 활용한 대화형 인터페이스 설계 기법. 사용자 경험, 폴백 처리, 컨텍스트 관리 등을 종합적으로 설계한다.
長い入力コンテキストを圧縮して効率的に処理する技術群の総称。アテンションシンク、ストリーミングLLM、ランドマークアテンションなどの手法により、メモリ効率を大幅に改善する技術である。
긴 입력 컨텍스트를 압축하여 효율적으로 처리하는 기술군의 총칭이다. 어텐션 싱크, 스트리밍 LLM, 랜드마크 어텐션 등의 기법으로 메모리 효율을 대폭 개선하는 기술이다.
テキストから人名・地名・組織名などの固有名詞を自動識別・抽出するNLP技術。NER(Named Entity Recognition)とも呼ばれ、情報抽出や文書分類に活用される。
텍스트에서 인명·지명·조직명 등의 고유명사를 자동으로 식별·추출하는 NLP 기술이다. NER(Named Entity Recognition)이라고도 불리며, 정보 추출 및 문서 분류에 활용된다.
テキストを高次元ベクトルに変換する専用モデル。文章間の意味的類似度を数値化でき、RAGにおける検索やセマンティック検索、クラスタリングなど多様なNLPタスクの基盤技術として活用される。
텍스트를 고차원 벡터로 변환하는 전용 모델이다. 문장 간의 의미적 유사도를 수치화할 수 있으며, RAG에서의 검색이나 시맨틱 검색, 클러스터링 등 다양한 NLP 태스크의 기반 기술로 활용된다.
勾配ブースティングを高速・高精度に実装したオープンソースの機械学習ライブラリ。表形式データの分類・回帰タスクで高いパフォーマンスを発揮し、Kaggleなどのコンペでも広く使われる。
경사 부스팅을 고속·고정밀로 구현한 오픈소스 머신러닝 라이브러리. 표 형식 데이터의 분류·회귀 작업에서 높은 성능을 발휘하며, Kaggle 등의 대회에서도 널리 사용된다.
学習時に見たことのないクラスをテスト時に推論する手法。ラベルなしデータや属性情報を活用し、未知カテゴリへの汎化を実現するML技術。
학습 시 본 적 없는 클래스를 테스트 시 추론하는 기법. 레이블 없는 데이터나 속성 정보를 활용해 미지의 카테고리로의 일반화를 실현하는 ML 기술.
人間の直接的なフィードバックの代わりに、AIが自らの出力を原則に基づいて評価・修正するアライメント手法。憲法のようなルール群をAIに与え、自己批判と修正を繰り返させる仕組みである。
인간의 직접적인 피드백 대신 AI가 스스로의 출력을 원칙에 기반하여 평가·수정하는 정렬 기법이다. 헌법과 같은 규칙 세트를 AI에 부여하고 자기 비판과 수정을 반복시키는 구조이다.
大規模言語モデルの推論とサービングを極めて高速かつ効率的に行うためのオープンソースエンジン。PagedAttentionというメモリ管理技術により、スループットを劇的に向上させている。
대규모 언어 모델의 추론과 서빙을 극히 빠르고 효율적으로 수행하기 위한 오픈소스 엔진. PagedAttention이라는 메모리 관리 기술을 통해 처리량을 극적으로 향상시킨다.
単語の表面的な一致ではなく、文章の意味や文脈を理解して検索する技術。ベクトル埋め込みを用いて意味的な類似度を計算し、より精度の高い検索結果を返す。
단어의 표면적인 일치가 아닌 문장의 의미와 문맥을 이해하여 검색하는 기술. 벡터 임베딩을 사용해 의미적 유사도를 계산하고, 더 높은 정확도의 검색 결과를 반환한다.
攻撃者が巧妙なプロンプトを使用してシステムプロンプトの内容を漏洩させる攻撃手法。知的財産やセキュリティ設定が露出するリスクがあり、プロンプトセキュリティの重要課題である。
공격자가 교묘한 프롬프트를 사용하여 시스템 프롬프트 내용을 유출시키는 공격 기법이다. 지적 재산이나 보안 설정이 노출될 리스크가 있어 프롬프트 보안의 중요 과제이다.
潜在空間に確率分布を学習し新しいデータを生成するニューラルネットワーク。Diffusionモデルの潜在空間表現にも活用され、画像圧縮・異常検知・生成タスクに使われる。
잠재 공간에 확률 분포를 학습하여 새로운 데이터를 생성하는 신경망. Diffusion 모델의 잠재 공간 표현에도 활용되며, 이미지 압축·이상 탐지·생성 태스크에 사용된다.
AIエージェントが過去の対話や行動の履歴を保持・参照するための設計構造。短期記憶と長期記憶を組み合わせて文脈を維持しながらタスクを遂行し、継続的な対話を可能にする。
AI 에이전트가 과거의 대화나 행동 이력을 보유 및 참조하기 위한 설계 구조이다. 단기 기억과 장기 기억을 조합하여 문맥을 유지하면서 태스크를 수행하고 지속적인 대화를 가능하게 한다.
ユーザーの発話や入力テキストから目的・要求を自動判別する技術。チャットボットや音声アシスタントのNLU処理で中核を担う。
사용자의 발화나 입력 텍스트에서 목적과 요구를 자동으로 판별하는 기술로, 챗봇과 음성 어시스턴트의 NLU 처리에서 핵심적인 역할을 담당한다.
フォワードパスの中間活性化値を保存せず、バックプロパゲーション時に再計算するメモリ節約技法。GPUメモリの使用量を大幅に削減できるため、限られたハードウェアで大規模モデルの学習が可能になる。
포워드 패스의 중간 활성화 값을 저장하지 않고 역전파 시 재계산하는 메모리 절약 기법이다. GPU 메모리 사용량을 대폭 줄여 제한된 하드웨어에서 대규모 모델의 학습을 가능하게 한다.
キーとバリューのヘッドを全クエリヘッドで共有することで、KVキャッシュのメモリ使用量を削減する推論効率化手法。推論速度の向上とメモリ消費の大幅な削減を両立させる。
키와 밸류 헤드를 모든 쿼리 헤드에서 공유하여 KV 캐시의 메모리 사용량을 줄이는 추론 효율화 기법이다. 추론 속도 향상과 메모리 소비의 대폭 절감을 양립시킨다.
多層のニューラルネットワークを用いた機械学習の一手法。画像認識・音声認識・自然言語処理など幅広いAIタスクで高い精度を発揮する。
다층 신경망을 활용한 머신러닝 기법으로, 이미지 인식·음성 인식·자연어 처리 등 다양한 AI 태스크에서 높은 정확도를 발휘한다.
AIが事実と異なる情報を自信を持って出力する現象。LLMが学習データにない内容を「でっち上げる」ことで、誤情報のリスクが生じる。
AI가 사실과 다른 정보를 자신 있게 출력하는 현상. LLM이 학습 데이터에 없는 내용을 '지어내는' 것으로, 잘못된 정보의 위험이 발생한다.
データ前処理・学習・評価・デプロイなどのML工程を自動化し、依存関係を管理しながら実行するワークフロー管理の仕組み。再現性と運用効率を同時に向上させる基盤技術である。
데이터 전처리·학습·평가·배포 등의 ML 공정을 자동화하고 의존 관계를 관리하면서 실행하는 워크플로 관리 구조. 재현성과 운영 효율을 동시에 향상시키는 기반 기술이다.
LLMが一度に処理できるトークン数の上限を拡張する技術。RoPEスケーリングやスライディングウィンドウなどの手法がある。
LLM이 한 번에 처리할 수 있는 토큰 수 상한을 확장하는 기술. RoPE 스케일링과 슬라이딩 윈도우 등의 기법이 있다.
非構造化テキストからLLMを用いて構造化されたJSON、テーブル、エンティティなどの形式でデータを抽出する手法。情報抽出の自動化とデータパイプラインの効率化に活用される。
비구조화 텍스트에서 LLM을 사용하여 구조화된 JSON, 테이블, 엔티티 등의 형식으로 데이터를 추출하는 기법이다. 정보 추출 자동화와 데이터 파이프라인 효율화에 활용된다.
大規模言語モデルの一部パラメータのみを効率的にファインチューニングする手法の総称。LoRAやAdapterなどが含まれ、少ないリソースでモデルを特定タスクに適応させられる。
대규모 언어 모델의 일부 파라미터만 효율적으로 파인튜닝하는 기법의 총칭. LoRA, Adapter 등이 포함되며, 적은 리소스로 모델을 특정 태스크에 적응시킬 수 있다.
GoogleのチャットボットおよびNLP開発プラットフォーム。インテントやエンティティを設定し、自然言語による会話フローを構築できる。LINE・Slackなど多チャネルに対応。
Google의 챗봇 및 NLP 개발 플랫폼. 인텐트와 엔티티를 설정하여 자연어 기반 대화 흐름을 구축할 수 있으며, LINE·Slack 등 다양한 채널을 지원한다.
機械学習モデルの学習用データに対して、正解となるラベル(タグ)を付与する作業。AIの精度はラベリングの品質に大きく左右される。
머신러닝 모델의 학습용 데이터에 정답 레이블(태그)을 부여하는 작업. AI의 정확도는 레이블링의 품질에 크게 좌우된다.
大量のデータをまとめてAIモデルに入力し、一括で推論結果を得る処理方式。リアルタイム性より処理効率やコスト最適化を優先する場面で活用される。
대량의 데이터를 AI 모델에 일괄 입력하여 한꺼번에 추론 결과를 얻는 처리 방식. 실시간성보다 처리 효율과 비용 최적화를 우선하는 상황에서 활용된다.
大規模モデルが一定のパラメータ数を超えた際に突然発現する予期しない高度な能力のこと。小規模モデルでは全く観測されない推論・翻訳・算術能力などが代表的な事例である。
대규모 모델이 일정 파라미터 수를 초과했을 때 갑자기 나타나는 예상치 못한 고도의 능력이다. 소규모 모델에서는 관측되지 않는 추론·번역·산술 능력 등이 대표적인 사례이다.
GeneratorとDiscriminatorが競い合いながら学習するAIフレームワーク。画像生成や動画合成、データ拡張などに広く活用されるGANの基本アーキテクチャ。
생성자(Generator)와 판별자(Discriminator)가 서로 경쟁하며 학습하는 AI 프레임워크. 이미지 생성, 영상 합성, 데이터 증강 등에 널리 활용되는 GAN의 기본 아키텍처.
複数のクエリヘッドで同一のKey-Valueヘッドを共有するアテンション機構。マルチヘッドアテンションのメモリ消費を削減しつつ、品質の低下を最小限に抑えるためLLMの推論効率化に広く採用されている。
여러 쿼리 헤드에서 동일한 Key-Value 헤드를 공유하는 어텐션 구조이다. 멀티헤드 어텐션의 메모리 소비를 줄이면서 품질 저하를 최소화하여 LLM의 추론 효율화에 널리 채용되고 있다.
入力シーケンス内の全要素間の関連度をクエリ・キー・バリューの行列演算で計算する注意機構。トランスフォーマーの基本構成要素で、各トークンが他の全トークンとの関係性を学習する。
입력 시퀀스 내 모든 요소 간의 관련도를 쿼리·키·밸류의 행렬 연산으로 계산하는 주의 메커니즘이다. 트랜스포머의 기본 구성 요소로, 각 토큰이 다른 모든 토큰과의 관계를 학습한다.
ベクトル検索(セマンティック検索)とキーワード検索(BM25など)を組み合わせた検索手法。意味的な類似性と語彙的な一致の両方を活用し、RAGシステムの検索精度を向上させる。
벡터 검색(시맨틱 검색)과 키워드 검색(BM25 등)을 결합한 검색 기법이다. 의미적 유사성과 어휘적 일치를 모두 활용하여 RAG 시스템의 검색 정확도를 향상시킨다.
変分オートエンコーダー(VAE)は、入力データを潜在空間に圧縮・復元する生成モデル。画像生成や異常検知、データ拡張などに活用される深層学習アーキテクチャ。
변분 오토인코더(VAE)는 입력 데이터를 잠재 공간으로 압축하고 복원하는 생성 모델로, 이미지 생성, 이상 탐지, 데이터 증강 등에 활용되는 딥러닝 아키텍처이다.
既存の事前学習済みモデルに新しいドメインのデータを追加で学習させる手法。既存知識を保持しながら専門分野の知識を効率的に追加でき、ゼロからの学習と比較してコストが大幅に低い手法である。
기존 사전 학습 모델에 새로운 도메인의 데이터를 추가로 학습시키는 기법이다. 기존 지식을 유지하면서 전문 분야 지식을 효율적으로 추가할 수 있어 처음부터 학습하는 것과 비교하여 비용이 대폭 낮은 기법이다.
全トークン間のアテンション計算を行わず、固定幅のウィンドウ内でのみアテンションを計算する手法。計算量をO(n²)からO(n)に削減し、長文入力時のメモリ効率と処理速度を大幅に向上させる。
전체 토큰 간 어텐션 계산을 수행하지 않고 고정 폭 윈도우 내에서만 어텐션을 계산하는 기법이다. 계산량을 O(n²)에서 O(n)으로 줄여 장문 입력 시 메모리 효율과 처리 속도를 크게 향상시킨다.
AIモデルの出力を制御・制限するための仕組み。有害コンテンツの生成防止や、特定トピックへの回答制限など、LLMの安全な運用を担保するフィルタリング層。
AI 모델의 출력을 제어·제한하기 위한 구조. 유해 콘텐츠 생성 방지나 특정 주제에 대한 응답 제한 등, LLM의 안전한 운용을 보장하는 필터링 계층.
各デバイスやサーバーでローカルに学習し、モデルパラメータのみを集約する分散学習の実装手法。生データを共有せずにモデルを協調学習でき、医療や金融分野で特に注目される。
각 디바이스나 서버에서 로컬로 학습하고 모델 파라미터만 집약하는 분산 학습의 구현 기법. 원본 데이터를 공유하지 않고 모델을 협조 학습할 수 있어 의료 및 금융 분야에서 특히 주목받는다.
ML実験のハイパーパラメータ・メトリクス・アーティファクトを体系的に記録・比較する仕組み。実験の再現性を確保し、チーム間でのナレッジ共有とモデル改善サイクルの効率化を支援する。
ML 실험의 하이퍼파라미터·메트릭스·아티팩트를 체계적으로 기록·비교하는 구조. 실험의 재현성을 확보하고, 팀 간 지식 공유와 모델 개선 사이클의 효율화를 지원한다.
複数の自律的なAIエージェントが協調・分業して複雑なタスクを処理するアーキテクチャ。各エージェントが役割を持ち、相互通信しながら問題を解決する。
여러 자율적인 AI 에이전트가 협력·분업하여 복잡한 태스크를 처리하는 아키텍처. 각 에이전트가 역할을 갖고 상호 통신하며 문제를 해결한다.
数十万トークン以上の長大な入力に対して推論を行うLLMの能力およびその最適化技術。文書全体の俯瞰的理解や長編コードの一括分析など、従来困難だったタスクを実現する。
수십만 토큰 이상의 장대한 입력에 대해 추론을 수행하는 LLM의 능력 및 그 최적화 기술. 문서 전체의 부감적 이해나 장편 코드의 일괄 분석 등 종래 곤란했던 태스크를 실현한다.
AIがコードや文章の補完・提案をリアルタイムで行う支援機能。GitHub CopilotやMicrosoft 365 Copilotなど、開発・業務効率化に広く活用される。
AI가 코드나 문장의 자동완성 및 제안을 실시간으로 수행하는 보조 기능. GitHub Copilot, Microsoft 365 Copilot 등 개발 및 업무 효율화에 널리 활용된다.
インターネットを通じてリアルタイムまたは非同期でデータを学習するML手法。モデルをデプロイしながら逐次的に更新できるため、変化するデータ分布に適応しやすい。
인터넷을 통해 실시간 또는 비동기로 데이터를 학습하는 ML 기법. 모델을 배포하면서 순차적으로 업데이트할 수 있어 변화하는 데이터 분포에 적응하기 쉽다.
評価データに基づいてプロンプトを自動的に改善するアルゴリズム。DSPyなどのフレームワークを用いて、プロンプトの文言や構造を最適化し、手動チューニングよりも高い精度を効率的に達成する。
평가 데이터에 기반하여 프롬프트를 자동으로 개선하는 알고리즘이다. DSPy 등의 프레임워크를 사용하여 프롬프트의 문언이나 구조를 최적화하고 수동 튜닝보다 높은 정확도를 효율적으로 달성한다.
AIモデルの判断根拠を人間が理解できる形で説明できる技術。XAIとも呼ばれ、医療・金融など高リスク分野での信頼性確保や規制対応に不可欠。
AI 모델의 판단 근거를 인간이 이해할 수 있는 형태로 설명할 수 있는 기술. XAI라고도 불리며, 의료·금융 등 고위험 분야에서의 신뢰성 확보와 규제 대응에 필수적임.
複数のプロンプトを連鎖的に実行し、前のステップの出力を次のステップの入力として活用する技法。複雑なタスクを小さなサブタスクに分割して段階的に処理することで精度と制御性を高められる。
여러 프롬프트를 연쇄적으로 실행하여 이전 단계의 출력을 다음 단계의 입력으로 활용하는 기법이다. 복잡한 태스크를 작은 서브태스크로 분할하여 단계적으로 처리함으로써 정확도와 제어성을 높일 수 있다.
AIシステムの脆弱性や有害な出力を意図的に引き出すため、攻撃者視点でモデルを徹底的にテストするセキュリティ評価手法。
AI 시스템의 취약점이나 유해한 출력을 의도적으로 유도하기 위해 공격자 관점에서 모델을 철저히 테스트하는 보안 평가 기법입니다.
複雑な問題を複数のステップに分解し、各ステップの結果を次のステップに引き継ぎながら段階的に解答を導く推論手法。数学的証明や論理的分析など高度な認知タスクで有効である。
복잡한 문제를 여러 단계로 분해하고 각 단계의 결과를 다음 단계에 넘기면서 단계적으로 해답을 도출하는 추론 기법이다. 수학적 증명이나 논리적 분석 등 고도의 인지 태스크에서 유효하다.
ノイズを段階的に加えて破壊し、逆過程でノイズを除去することで画像や音声を生成する深層学習モデル。Stable DiffusionやDALL-Eなどで採用されている。
노이즈를 단계적으로 추가해 데이터를 파괴한 후, 역과정으로 노이즈를 제거하여 이미지나 음성을 생성하는 딥러닝 모델. Stable Diffusion이나 DALL-E 등에서 채택되고 있다.
LLMの出力品質を別のLLMモデルに自動評価させるCI/CDパイプライン。人間による評価が困難な大量のケースを自動判定でき、モデルの継続的な品質モニタリングに活用される。
LLM의 출력 품질을 다른 LLM 모델에 자동 평가시키는 CI/CD 파이프라인이다. 인간에 의한 평가가 어려운 대량의 케이스를 자동 판정할 수 있어 모델의 지속적 품질 모니터링에 활용된다.
LLMとのチャットにおいて、ユーザー入力の前にAIに与えるメタ指示。AIの「人格・役割(例:あなたはプロの翻訳家です)」「出力フォーマット」「禁止事項」などを定義し、会話全体の振る舞いを制御する。
LLM과의 채팅에서 사용자 입력 전에 AI에게 주는 메타 지시. AI의 '인격·역할(예: 당신은 전문 번역가입니다)', '출력 포맷', '금지 사항' 등을 정의하여 대화 전체의 행동을 제어한다.
ワンホットラベルの確信度を若干下げてソフトラベル化する正則化手法。モデルの過信を防ぎ、汎化性能の向上と分類精度の安定化に寄与する。分類・生成タスクで広く採用されている。
원-핫 레이블의 확신도를 약간 낮춰 소프트 레이블화하는 정규화 기법이다. 모델의 과신을 방지하고 범용 성능 향상과 분류 정확도 안정화에 기여한다. 분류·생성 태스크에서 널리 채택되고 있다.
LLMが外部ツールやAPIを自律的に呼び出して情報取得や操作を実行する仕組み。関数呼び出し形式で指定し、検索・計算・データベース操作などをLLMの能力拡張として利用する。
LLM이 외부 도구나 API를 자율적으로 호출하여 정보 취득이나 조작을 실행하는 구조. 함수 호출 형식으로 지정하며, 검색·계산·데이터베이스 조작 등을 LLM의 능력 확장으로 활용한다.
テキストや画像などをベクトル(数値の配列)に変換し、意味的な類似度をもとに検索する技術。キーワード一致ではなく意味的近さで結果を返すため、RAGやセマンティック検索に広く活用される。
텍스트나 이미지 등을 벡터(숫자 배열)로 변환하여 의미적 유사도를 기반으로 검색하는 기술. 키워드 일치가 아닌 의미적 유사성으로 결과를 반환하므로 RAG나 시맨틱 검색에 널리 활용된다.
時系列データや順序データの処理に適した、隠れ状態を持つニューラルネットワーク。LSTMやGRUなどの派生型があり、自然言語処理でトランスフォーマー以前に主流の手法だった。
시계열 데이터나 순서 데이터 처리에 적합한, 은닉 상태를 가지는 신경망이다. LSTM이나 GRU 등의 파생형이 있으며, 자연어 처리에서 트랜스포머가 등장하기 이전에 주류로 사용되던 기법이다.
LLMに複雑な問題を段階的に推論させるプロンプト技術。「ステップごとに考えてください」と指示することで、回答精度を大幅に向上させる手法(CoT)。
LLM에게 복잡한 문제를 단계적으로 추론하게 하는 프롬프트 기법. '단계별로 생각해 주세요'라고 지시함으로써 답변 정확도를 크게 향상시키는 방법(CoT).
RAGの検索精度を高めるために、ユーザーの元のクエリをLLMで意味的に拡張して複数の検索クエリに展開する技術。短い質問や曖昧な表現でもリコール率を向上させる効果がある。
RAG의 검색 정확도를 높이기 위해 사용자의 원래 쿼리를 LLM으로 의미적으로 확장하여 복수의 검색 쿼리로 전개하는 기술이다. 짧은 질문이나 모호한 표현에서도 리콜률이 향상된다.
大規模データで事前学習された汎用AIモデル。GPTやBERTなどが代表例で、ファインチューニングにより様々なタスクへ転用できる基盤モデル。
대규모 데이터로 사전 학습된 범용 AI 모델. GPT, BERT 등이 대표적이며, 파인튜닝을 통해 다양한 태스크에 전용할 수 있는 기반 모델.
ラベル付きの訓練データを用いてモデルを学習させる機械学習の手法。分類や回帰問題に広く活用され、正解データをもとにモデルが予測精度を向上させる。
레이블이 있는 학습 데이터를 사용하여 모델을 훈련시키는 머신러닝 기법. 분류 및 회귀 문제에 널리 활용되며, 정답 데이터를 기반으로 모델의 예측 정확도를 향상시킨다.
テキストの説明文から画像を自動生成するAI技術。Stable DiffusionやDALL-Eなどの拡散モデルが代表例で、プロンプト次第で多様な画像を出力できる。
텍스트 설명으로부터 이미지를 자동 생성하는 AI 기술. Stable Diffusion이나 DALL-E 같은 확산 모델이 대표적이며, 프롬프트에 따라 다양한 이미지를 출력할 수 있다.
MoEと略されるAIアーキテクチャ。モデル内に複数の「専門家(Expert)」ネットワークを用意し、入力に応じて適切な少数の専門家だけを動かすことで、推論コストを抑えつつ巨大なパラメータ数を実現する手法。
MoE로 약칭되는 AI 아키텍처. 모델 내에 여러 '전문가(Expert)' 네트워크를 두고, 입력에 따라 적절한 소수의 전문가만 작동시킴으로써 추론 비용을 억제하면서 거대한 파라미터 수를 실현하는 기법.
LLMの学習データやベンチマークデータにテストデータが混入していないかを検証する技術。評価結果の信頼性を確保するために不可欠なプロセスであり、公正なモデル比較の前提となる。
LLM의 학습 데이터나 벤치마크 데이터에 테스트 데이터가 혼입되어 있지 않은지를 검증하는 기술이다. 평가 결과의 신뢰성을 확보하기 위해 불가결한 프로세스이며 공정한 모델 비교의 전제가 된다.
LLMに指示を出す際、ルールを言葉で説明するだけでなく、望ましい入力と出力の「具体例(数個)」をプロンプト内に含めることで、AIの回答精度とフォーマット遵守率を飛躍的に高める手法。
LLM에 지시를 내릴 때 규칙을 말로 설명할 뿐만 아니라, 바람직한 입력과 출력의 '구체적 예시(몇 개)'를 프롬프트 내에 포함시킴으로써 AI의 답변 정확도와 포맷 준수율을 비약적으로 높이는 기법.
ユーザーの行動履歴や嗜好データを分析し、最適なコンテンツや商品を自動提案するアルゴリズム基盤のシステム。協調フィルタリングやコンテンツベースフィルタリングが代表的手法。
사용자의 행동 이력과 선호 데이터를 분석하여 최적의 콘텐츠나 상품을 자동으로 제안하는 알고리즘 기반 시스템. 협업 필터링과 콘텐츠 기반 필터링이 대표적인 기법이다.
テキストをAIが自然な音声に変換する技術。多言語対応や感情表現も可能になり、ナレーション生成や音声アシスタントに活用される。
텍스트를 AI가 자연스러운 음성으로 변환하는 기술. 다국어 대응과 감정 표현도 가능해져 내레이션 생성과 음성 어시스턴트에 활용된다.
ニューラルネットワークの重みや不要なノードを削除してモデルを軽量化・高速化する技術。推論コストの削減やエッジデバイスへのデプロイに有効。
신경망의 가중치나 불필요한 노드를 제거하여 모델을 경량화·고속화하는 기술. 추론 비용 절감과 엣지 디바이스 배포에 효과적이다.
AIチャットシステムにおいて複数回の対話を通じて文脈を維持・管理する技術。会話履歴の圧縮・要約・選択的保持などにより、長時間対話でも一貫性のある応答を実現する。
AI 채팅 시스템에서 여러 차례의 대화를 통해 문맥을 유지·관리하는 기술. 대화 이력의 압축·요약·선택적 보유 등으로 장시간 대화에서도 일관성 있는 응답을 실현한다.
アルゴリズムやAIシミュレーションによって人工的に生成されたデータ。本物のデータと統計的性質が似ており、プライバシー問題の回避や、機械学習の学習データ不足を補う目的で使われる。
알고리즘이나 AI 시뮬레이션을 통해 인공적으로 생성된 데이터. 실제 데이터와 통계적 성질이 비슷하며, 프라이버시 문제 회피나 머신러닝의 학습 데이터 부족을 보완할 목적으로 사용된다.
人間の指示なしに自律的に目標を設定・計画・実行できるAIシステム。複数のツールやAPIを連携して複雑なタスクを段階的に処理する次世代AIの概念。
인간의 지시 없이 자율적으로 목표를 설정하고 계획하며 실행할 수 있는 AI 시스템. 여러 도구와 API를 연계해 복잡한 작업을 단계적으로 처리하는 차세대 AI 개념.
AIモデルの入出力を安全かつ適切な範囲に制限するための制御機構やルールセットの総称。有害コンテンツの生成防止、トピック制限、個人情報漏洩防止などの安全対策を適用する。
AI 모델의 입출력을 안전한 범위로 제한하기 위한 제어 메커니즘 및 규칙 세트이다. 유해 콘텐츠 생성 방지, 토픽 제한, 개인정보 유출 방지 등의 안전 대책을 적용한다.
差分プライバシーの技術をLLMの学習に適用し、学習データ中の個人情報が推論結果から漏洩するリスクを数学的に保証しながら低減する手法。医療・金融データの安全な活用を可能にする。
차분 프라이버시 기술을 LLM의 학습에 적용하여 학습 데이터 내 개인 정보가 추론 결과로 유출되는 리스크를 수학적으로 보장하면서 저감하는 기법이다. 의료 및 금융 데이터의 안전한 활용을 가능하게 한다.
Swish関数とGated Linear Unitを組み合わせた活性化関数で、従来のReLUやGELUより高い性能を示す。LLaMAなど多くの最新LLMのフィードフォワード層で標準的に採用されている。
Swish 함수와 Gated Linear Unit을 결합한 활성화 함수로, 기존 ReLU나 GELU보다 높은 성능을 보인다. LLaMA 등 다수의 최신 LLM 피드포워드 층에서 표준적으로 채용되고 있다.
画像をパッチに分割してトランスフォーマーで処理する画像認識向けアーキテクチャ。CNNに代わる手法として注目され、大規模データでの事前学習時に特に高い精度を発揮する。
이미지를 패치로 분할하여 트랜스포머로 처리하는 이미지 인식용 아키텍처이다. CNN을 대체하는 기법으로 주목받으며, 대규모 데이터 사전 학습 시 특히 높은 정확도를 발휘한다.
単一のモデルを複数のGPUに分割して配置する分散学習の総称。テンソル並列やパイプライン並列を包含する概念で、単一GPUのメモリに収まらない大規模モデルの訓練・推論に不可欠な技術である。
단일 모델을 여러 GPU에 분할하여 배치하는 분산 학습의 총칭이다. 텐서 병렬이나 파이프라인 병렬을 포함하는 개념으로, 단일 GPU 메모리에 맞지 않는 대규모 모델의 훈련·추론에 필수적인 기술이다.
AIモデルの重みや活性化値を低精度(INT8・INT4など)に変換し、モデルサイズ削減と推論高速化を実現する最適化手法。
AI 모델의 가중치와 활성화 값을 낮은 정밀도(INT8·INT4 등)로 변환하여 모델 크기를 줄이고 추론 속도를 높이는 최적화 기법입니다.
大量のテキストデータで学習した自然言語処理AI。LLMとも呼ばれ、GPTやGeminiなどが代表例。文章生成・要約・翻訳・コード生成など多様なタスクに対応できる。
대량의 텍스트 데이터로 학습한 자연어 처리 AI. LLM이라고도 하며, GPT와 Gemini 등이 대표적인 예시. 문장 생성·요약·번역·코드 생성 등 다양한 작업을 수행할 수 있다.
機械学習に有効な特徴量の生成・選択・変換を自動化する技術。データ型や統計情報から有望な特徴量候補を自動探索し、モデル精度向上に寄与する最適な特徴量セットを効率的に発見する。
머신러닝에 유효한 특징량의 생성·선택·변환을 자동화하는 기술. 데이터 타입이나 통계 정보로부터 유망한 특징량 후보를 자동 탐색하여 모델 정확도 향상에 기여하는 최적의 특징량 세트를 효율적으로 발견한다.
LLMの出力をJSON等の構造化フォーマットに制約する技術。文法制約付きデコーディングやJSON Schemaによるバリデーションにより、パース可能な出力を保証する仕組みである。
LLM의 출력을 JSON 등 구조화된 포맷으로 제약하는 기술이다. 문법 제약 디코딩이나 JSON Schema 검증을 통해 파싱 가능한 출력을 보장하는 구조이다.
AIモデルの安全制約を意図的に回避する行為。不正なプロンプト操作によりChatGPTなどのLLMに禁止コンテンツを出力させる攻撃手法。
AI 모델의 안전 제약을 의도적으로 우회하는 행위. 부적절한 프롬프트 조작으로 ChatGPT 등 LLM이 금지 콘텐츠를 출력하도록 유도하는 공격 기법.
モデルが新しいデータを継続的に学習しながら、過去の知識を忘れずに性能を維持・向上させる機械学習の手法。破滅的忘却の防止が主要課題。
모델이 새로운 데이터를 지속적으로 학습하면서 과거 지식을 잊지 않고 성능을 유지·향상시키는 머신러닝 기법. 파국적 망각 방지가 주요 과제.
画像や動画内に存在する物体の種類と位置をバウンディングボックスで特定するAI技術。YOLO、Faster R-CNNなどのモデルが広く使われる。
이미지나 동영상 내에 존재하는 객체의 종류와 위치를 바운딩 박스로 특정하는 AI 기술. YOLO, Faster R-CNN 등의 모델이 널리 사용된다.
Mixture of Expertsモデルにおいて、各エキスパートネットワークを異なるGPUに分散配置して並列実行する手法。エキスパート数の増加に伴うメモリ問題を解決し、大規模MoEモデルの効率的な推論を実現する。
Mixture of Experts 모델에서 각 전문가 네트워크를 서로 다른 GPU에 분산 배치하여 병렬 실행하는 기법이다. 전문가 수 증가에 따른 메모리 문제를 해결하고 대규모 MoE 모델의 효율적 추론을 실현한다.
テキストデータを入力から出力まで一連の処理ステップで変換するNLP処理フロー。トークン化・品詞解析・感情分析などの工程を連結して自動化する仕組み。
텍스트 데이터를 입력부터 출력까지 일련의 처리 단계로 변환하는 NLP 처리 흐름. 토큰화·품사 분석·감성 분석 등의 공정을 연결하여 자동화하는 구조.
エージェントやRAGなど複合AIシステム全体の性能を、個別コンポーネントだけでなくエンドツーエンドで評価する手法。実運用に近い条件で品質測定を行い、ボトルネックを特定する。
에이전트나 RAG 등 복합 AI 시스템 전체의 성능을 개별 컴포넌트뿐 아니라 엔드투엔드로 평가하는 기법이다. 실운용에 가까운 조건에서 품질 측정을 수행하여 병목을 특정한다.
AIサービスの利用データを学習に再利用し、モデル精度向上がさらに利用を促進する好循環の仕組み。プロダクトの競争優位を強化する。
AI 서비스 이용 데이터를 학습에 재활용하여 모델 정확도 향상이 더 많은 이용을 촉진하는 선순환 구조. 제품의 경쟁 우위를 강화한다.
入力シーケンス内の各要素が他の全要素との関連度を計算する仕組み。TransformerモデルのコアであるSelf-Attentionとも呼ばれ、文脈理解の精度を高める。
입력 시퀀스 내 각 요소가 다른 모든 요소와의 연관도를 계산하는 구조. Transformer 모델의 핵심인 Self-Attention으로도 불리며, 문맥 이해의 정확도를 높인다.
AIモデルの脆弱性や有害出力を意図的に探索・発見するセキュリティテスト手法。攻撃者の視点から巧妙にプロンプトを設計し、モデルの弱点を体系的に洗い出す取り組みである。
AI 모델의 취약점이나 유해 출력을 의도적으로 탐색·발견하는 보안 테스트 기법이다. 공격자 관점에서 프롬프트를 교묘하게 설계하여 모델의 약점을 체계적으로 파악한다.
ニューラルネットワークの推論時にパラメータの一部のみを選択的に活性化させる技術。全パラメータを使用せずに推論を行うことで、大規模モデルの計算効率を大幅に向上させることができる。
뉴럴 네트워크 추론 시 파라미터의 일부만 선택적으로 활성화시키는 기술. 전체 파라미터를 사용하지 않고 추론을 수행함으로써 대규모 모델의 계산 효율을 대폭 향상시킬 수 있다.
LLMが構造化された関数定義に基づいてパラメータをJSON形式で生成し、外部関数を実行する機能。OpenAI Function Callingが代表的で、APIとの連携に活用される。
LLM이 구조화된 함수 정의에 기반하여 파라미터를 JSON 형식으로 생성하고 외부 함수를 실행하는 기능이다. OpenAI Function Calling이 대표적이며, API 연계에 활용된다.
AIシステムが法規制やガバナンスポリシーに準拠しているかを体系的に検証するプロセス。EU AI規制法やデータ保護法への適合性を評価し、リスク管理と透明性を確保する組織的活動である。
AI 시스템이 법규제나 거버넌스 정책에 준거하고 있는지 체계적으로 검증하는 프로세스이다. EU AI 규제법이나 데이터 보호법에 대한 적합성을 평가하고 리스크 관리와 투명성을 확보하는 조직적 활동이다.
Retrieval-Augmented Generationの略。外部知識ベースを検索してLLMの回答精度を高める技術。ハルシネーション抑制やドメイン特化QAに活用される。
Retrieval-Augmented Generation의 약자. 외부 지식 베이스를 검색하여 LLM의 응답 정확도를 높이는 기술. 환각 현상 억제 및 도메인 특화 QA에 활용된다.
AIシステムの意思決定プロセスを人間が監視・監督する仕組み。ヒューマンインザループの概念を拡張し、自律的なAIエージェントの行動に対する組織的な監視体制を構築する。
AI 시스템의 의사결정 프로세스를 인간이 감시·감독하는 구조이다. 휴먼 인 더 루프 개념을 확장하여 자율적 AI 에이전트의 행동에 대한 조직적 감시 체제를 구축한다.
LLM利用時に入力・出力トークン数の上限を事前に設定し、コストやレイテンシを制御する運用手法。プロンプト設計やコンテキスト圧縮と組み合わせることで予算超過を防止する。
LLM 사용 시 입력 및 출력 토큰 수의 상한을 사전에 설정하여 비용과 레이턴시를 제어하는 운용 기법이다. 프롬프트 설계나 컨텍스트 압축과 조합하여 예산 초과를 방지한다.
クラウドに依存せずデバイス上でMLモデルを推論・学習する技術。プライバシー保護・低遅延・オフライン動作が可能で、スマートフォンやIoT機器に活用される。
클라우드에 의존하지 않고 디바이스에서 직접 ML 모델을 추론·학습하는 기술. 개인정보 보호, 저지연, 오프라인 동작이 가능하며 스마트폰이나 IoT 기기에 활용된다.
AIエージェントがタスクを達成するために「計画立案→実行→結果評価→再計画」を繰り返すループ処理。LLMベースのAIシステムで中心的な動作原理となる。
AI 에이전트가 작업을 달성하기 위해 '계획 수립→실행→결과 평가→재계획'을 반복하는 루프 처리. LLM 기반 AI 시스템의 핵심 동작 원리다.
複数のプロンプトをワークフローとして連結し、段階的にLLMの出力を組み合わせて複雑なタスクを実行する設計パターン。各ステップの再利用性が高く、デバッグや品質管理もしやすいのが利点である。
여러 프롬프트를 워크플로우로 연결하여 단계적으로 LLM의 출력을 조합해 복잡한 태스크를 실행하는 설계 패턴이다. 각 단계의 재사용성이 높고 디버깅이나 품질 관리도 용이한 것이 장점이다.
PyTorchが提供するFully Sharded Data Parallelismの略で、モデルパラメータ・勾配・オプティマイザ状態を全GPU間でシャーディングする分散学習手法。DeepSpeed ZeROと同等のメモリ効率化をPyTorchネイティブで実現する。
PyTorch가 제공하는 Fully Sharded Data Parallelism의 약자로, 모델 파라미터·그래디언트·옵티마이저 상태를 전체 GPU 간에 샤딩하는 분산 학습 기법이다. DeepSpeed ZeRO와 동등한 메모리 효율화를 PyTorch 네이티브로 실현한다.
既に事前学習済みのモデルに対して、ドメイン固有の大量データでさらに事前学習を追加実施する手法。医療・法律・金融など特定分野の言語理解力を強化するために用いられる。
이미 사전 학습이 완료된 모델에 대해 도메인 고유의 대량 데이터로 추가 사전 학습을 실시하는 기법. 의료·법률·금융 등 특정 분야의 언어 이해력을 강화하기 위해 사용된다.
高次元ベクトルを有限個の代表ベクトルに近似する圧縮手法。ベクトル検索の高速化やメモリ使用量の削減に活用される。
고차원 벡터를 유한 개의 대표 벡터로 근사하는 압축 기법. 벡터 검색 고속화와 메모리 사용량 절감에 활용된다.
自然言語で入力された質問に対して、AIが適切な回答を自動生成・抽出する技術。QAシステムやチャットボット、RAGなどに広く活用される。
자연어로 입력된 질문에 대해 AI가 적절한 답변을 자동 생성·추출하는 기술. QA 시스템, 챗봇, RAG 등에 널리 활용된다.
FP16とFP32など異なる浮動小数点精度を組み合わせてモデルを学習する技法。メモリ使用量と計算コストを削減しつつ、学習精度の低下を最小限に抑えることができる。
FP16과 FP32 등 서로 다른 부동소수점 정밀도를 조합하여 모델을 학습하는 기법. 메모리 사용량과 계산 비용을 절감하면서 학습 정확도 저하를 최소한으로 억제할 수 있다.
自然言語のテキストをSQLクエリに自動変換するAI技術。非エンジニアもデータ取得が可能になり、BIツールや社内データ活用の民主化に貢献する。
자연어 텍스트를 SQL 쿼리로 자동 변환하는 AI 기술. 비엔지니어도 데이터 조회가 가능해지며, BI 툴이나 사내 데이터 활용의 민주화에 기여한다.
複数のタスクから学習パターンを抽出し、新しいタスクへ素早く適応できる能力を獲得する学習手法。少量のデータでも新しいタスクに対応できるため、フューショット学習の基盤技術として注目される。
여러 태스크에서 학습 패턴을 추출하여 새로운 태스크에 빠르게 적응할 수 있는 능력을 획득하는 학습 기법이다. 소량의 데이터로도 새로운 태스크에 대응할 수 있어 퓨샷 학습의 기반 기술로 주목받고 있다.
大規模な教師モデルの知識を小型の生徒モデルに転移させる学習手法。モデルの軽量化・高速化を図りながら精度を維持できるため、エッジデバイスへのAI展開に有効。
대규모 교사 모델의 지식을 소형 학생 모델로 이전하는 학습 기법입니다. 모델 경량화 및 고속화를 유지하면서 정확도를 보존할 수 있어 엣지 디바이스 AI 배포에 효과적입니다.
AI機械翻訳の出力品質をBLEU、COMET等の指標で定量的に評価する手法。人手評価との相関も確認して翻訳精度を改善する。
AI 기계번역 출력 품질을 BLEU, COMET 등의 지표로 정량적으로 평가하는 기법. 인간 평가와의 상관도 확인하여 번역 정확도를 개선한다.
LLMの出力テキストの長さを意図した範囲に収めるための技術群。長さペナルティの適用、条件付き生成、EOS(文末)トークンの確率操作などを組み合わせて望ましい出力長を実現する手法である。
LLM의 출력 텍스트 길이를 의도한 범위에 맞추기 위한 기술군이다. 길이 페널티 적용, 조건부 생성, EOS(문말) 토큰의 확률 조작 등을 조합하여 바람직한 출력 길이를 실현하는 기법이다.
グラフ構造のデータに対して深層学習を適用するニューラルネットワーク。ソーシャルネットワーク分析、分子構造予測、不正検知、推薦システムなど幅広い分野に応用される技術である。
그래프 구조의 데이터에 대해 딥러닝을 적용하는 뉴럴 네트워크이다. 소셜 네트워크 분석, 분자 구조 예측, 부정 검출, 추천 시스템 등 폭넓은 분야에 응용되는 기술이다.
AIが生成したデータで繰り返し学習することで、モデルの出力品質が徐々に劣化していく現象。生成データの多様性が失われ、特定のパターンに収束してしまうリスクがある。
AI가 생성한 데이터로 반복 학습함으로써 모델의 출력 품질이 점차 열화되어 가는 현상. 생성 데이터의 다양성이 상실되어 특정 패턴으로 수렴해 버리는 리스크가 있다.
AIエージェントが自身の出力を振り返り、自己評価と修正を行うことで回答品質を向上させる手法。複数回の自己批判ループにより、論理的整合性やファクトの正確性を改善する。
AI 에이전트가 자신의 출력을 되돌아보고 자기 평가와 수정을 수행하여 응답 품질을 향상시키는 기법. 여러 차례의 자기 비판 루프를 통해 논리적 정합성과 팩트의 정확성을 개선한다.
LLMが「推論(Reasoning)」と「行動(Acting)」を交互に繰り返すエージェント設計パターン。ツール呼び出しと思考ステップを組み合わせ、複雑なタスクを段階的に解決する。
LLM이 '추론(Reasoning)'과 '행동(Acting)'을 번갈아 반복하는 에이전트 설계 패턴. 툴 호출과 사고 단계를 결합해 복잡한 태스크를 단계적으로 해결한다.
大規模モデルの知識を小型モデルに転移させた軽量モデル。推論速度とコストを改善しつつ、一定の精度を維持できる。
대규모 모델의 지식을 소형 모델에 전이시킨 경량 모델. 추론 속도와 비용을 개선하면서 일정 수준의 정확도를 유지할 수 있다.
AIモデル(主にLLM)から意図した出力を得るために、入力テキスト(プロンプト)を設計・最適化する技術。Few-shotやChain-of-Thoughtなど様々な手法がある。
AI 모델(주로 LLM)에서 원하는 출력을 얻기 위해 입력 텍스트(프롬프트)를 설계하고 최적화하는 기술로, Few-shot이나 Chain-of-Thought 등 다양한 기법이 있다.
学習済みAIモデルを本番環境で高速に推論実行するためのソフトウェア基盤。バッチ処理・量子化・並列化などの最適化を統合的に提供し、デプロイからスケーリングまで対応する。
학습 완료된 AI 모델을 운영 환경에서 고속으로 추론 실행하기 위한 소프트웨어 기반. 배치 처리·양자화·병렬화 등의 최적화를 통합적으로 제공하며, 배포부터 스케일링까지 대응한다.
汎用の埋め込みモデルを特定ドメインのデータで追加学習し、そのドメインにおける検索精度や類似度計算の性能を向上させる手法。RAGシステムの検索品質改善に有効である。
범용 임베딩 모델을 특정 도메인 데이터로 추가 학습하여 해당 도메인에서의 검색 정확도나 유사도 계산 성능을 향상시키는 기법이다. RAG 시스템의 검색 품질 개선에 유효하다.
画像や動画から人体の関節・骨格の位置を検出し、姿勢を推定するAI技術。MediaPipeやOpenPoseなどのフレームワークが広く活用される。
이미지나 영상에서 인체의 관절 및 골격 위치를 감지하여 자세를 추정하는 AI 기술. MediaPipe나 OpenPose 같은 프레임워크가 널리 활용된다.
AIによる業務自動化に伴うリスクを体系的に評価・管理する概念。誤判断の連鎖、人間の監視力低下、責任所在の曖昧化などを分析し、業務ごとに適切な自動化レベルを決定する。
AI에 의한 업무 자동화에 수반되는 리스크를 체계적으로 평가·관리하는 개념이다. 오판단의 연쇄, 인간의 감시력 저하, 책임 소재의 모호화 등을 분석하여 업무별로 적절한 자동화 수준을 결정한다.
少数の例示データのみでタスクを遂行するプロンプトベースの学習方式。プロンプトに数件の入出力例を含めることで、追加学習なしにモデルの応答精度を向上させることができる。
소수의 예시 데이터만으로 태스크를 수행하는 프롬프트 기반의 학습 방식이다. 프롬프트에 몇 건의 입출력 예시를 포함시켜 추가 학습 없이 모델의 응답 정확도를 향상시킬 수 있다.
テキストや音声から感情(ポジティブ・ネガティブ・中立など)を自動判定する技術。NLPを活用し、カスタマーレビューやSNS投稿の分析に広く活用される。
텍스트나 음성에서 감정(긍정·부정·중립 등)을 자동으로 판별하는 기술. NLP를 활용하며, 고객 리뷰나 SNS 게시물 분석에 널리 사용된다.
AIモデルの学習データ、学習過程、推論結果の根拠を遡って追跡できる仕組み。監査対応やコンプライアンス確保、AI透明性の向上に必要不可欠な機能として重視されている。
AI 모델의 학습 데이터, 학습 과정, 추론 결과의 근거를 소급하여 추적할 수 있는 구조이다. 감사 대응이나 컴플라이언스 확보, AI 투명성 향상에 필수불가결한 기능으로 활용된다.
複数のLLMプロバイダーへのAPIリクエストを統合管理するプロキシサービス。レート制限、コスト管理、フォールバック、ログ収集などを一元化し、AIインフラの運用効率を向上させる。
복수의 LLM 프로바이더에 대한 API 요청을 통합 관리하는 프록시 서비스이다. 레이트 제한, 비용 관리, 폴백, 로그 수집 등을 일원화하여 AI 인프라 운용 효율을 향상시킨다.
学習済みAIモデルの推論処理を高速化・軽量化する技術。量子化・プルーニング・知識蒸留などの手法でレイテンシ削減とコスト最適化を実現する。
학습된 AI 모델의 추론 처리를 고속화·경량화하는 기술. 양자화·프루닝·지식 증류 등의 기법으로 레이턴시 감소와 비용 최적화를 실현한다.
LLM推論をプレフィル(入力処理)とデコード(トークン生成)の2段階に分離して異なるGPUクラスターで処理する設計。各段階のハードウェア特性に合わせた最適化でスループットを最大化する。
LLM 추론을 프리필(입력 처리)과 디코드(토큰 생성)의 2단계로 분리하여 서로 다른 GPU 클러스터에서 처리하는 설계이다. 각 단계의 하드웨어 특성에 맞춘 최적화로 처리량을 극대화한다.
AIシステムの開発・運用における倫理的原則の総称。公平性・透明性・プライバシー保護・説明責任などを含み、責任あるAI活用の指針となる。
AI 시스템 개발 및 운영에서의 윤리적 원칙 총칭. 공정성·투명성·프라이버시 보호·책임 등을 포함하며 책임 있는 AI 활용의 지침이 된다.
累積確率がP以下になるまでのトークン集合から次のトークンを選択する動的なサンプリング手法。確率分布に応じて候補数が自動調整されるため、トップKより柔軟な多様性制御が可能である。
누적 확률이 P 이하가 될 때까지의 토큰 집합에서 다음 토큰을 선택하는 동적 샘플링 기법이다. 확률 분포에 따라 후보 수가 자동 조정되어 탑K보다 유연한 다양성 제어가 가능하다.
AIモデルの出力にステガノグラフィ的な透かしを埋め込み、生成元を追跡可能にする技術。トークンの選択確率を微妙に偏らせて、人間には検知できないが統計的に検出可能な痕跡を残す仕組みである。
AI 모델의 출력에 스테가노그래피적 워터마크를 삽입하여 생성원을 추적 가능하게 하는 기술이다. 토큰 선택 확률을 미세하게 편향시켜 인간에게는 감지할 수 없지만 통계적으로 검출 가능한 흔적을 남기는 구조이다.
データの収集・変換・格納・配信のパイプラインを設計・構築・運用する技術領域。ETL処理やデータウェアハウス構築などが中心業務となる。
데이터의 수집·변환·저장·배포 파이프라인을 설계·구축·운영하는 기술 영역으로, ETL 처리 및 데이터 웨어하우스 구축 등이 핵심 업무다.
自然言語処理を活用し、ユーザーの質問や指示に自動で応答するAIシステム。ChatGPTやCopilotなどが代表例で、業務効率化に広く活用されている。
자연어 처리를 활용하여 사용자의 질문이나 지시에 자동으로 응답하는 AI 시스템. ChatGPT나 Copilot 등이 대표적인 예로, 업무 효율화에 널리 활용되고 있다.
LLMへの入出力を監視し、プロンプトインジェクションや機密情報漏洩などのセキュリティリスクをリアルタイムで検知・遮断する防御システム。本番環境での安全なLLM運用に不可欠である。
LLM으로의 입출력을 감시하여 프롬프트 인젝션이나 기밀 정보 유출 등의 보안 리스크를 실시간으로 검출 및 차단하는 방어 시스템이다. 프로덕션 환경에서의 안전한 LLM 운용에 필수적으로 활용된다.
LLMの学習データに含まれる情報の最終時点。カットオフ以降の情報には対応できないため、RAGなどで最新情報を補完する必要がある。
LLM 학습 데이터에 포함된 정보의 최종 시점. 컷오프 이후 정보에는 대응할 수 없어 RAG 등으로 최신 정보를 보완해야 한다.
AIシステムの出力や動作を安全・倫理的な範囲内に制限する仕組み。有害コンテンツの生成防止やバイアス抑制などに使われる制御機能の総称。
AI 시스템의 출력이나 동작을 안전하고 윤리적인 범위 내로 제한하는 구조. 유해 콘텐츠 생성 방지 및 편향 억제 등에 사용되는 제어 기능의 총칭.
SFTと選好最適化を単一ステップで同時に実行するアライメント手法。DPOのように参照モデルが不要で、学習効率が高く計算コストを大幅に削減できるのが特徴的なアプローチである。
SFT와 선호 최적화를 단일 스텝으로 동시에 실행하는 정렬 기법이다. DPO처럼 참조 모델이 불필요하고 학습 효율이 높아 계산 비용을 대폭 줄일 수 있는 것이 특징적인 접근법이다.
画像認識に特化したニューラルネットワークの一種。畳み込み層とプーリング層により局所的な特徴を階層的に抽出し、物体検出・セグメンテーション・顔認識などに広く使われている。
이미지 인식에 특화된 신경망의 일종이다. 합성곱 층과 풀링 층으로 국소적 특징을 계층적으로 추출하며, 물체 검출이나 세그멘테이션 등에 널리 사용된다.
学習データに数学的なノイズを加えることで、個々のデータポイントの存在が出力に影響を与えないことを保証するプライバシー保護手法。εパラメータでプライバシーとモデル精度のトレードオフを制御する。
학습 데이터에 수학적 노이즈를 추가하여 개별 데이터 포인트의 존재가 출력에 영향을 미치지 않음을 보장하는 프라이버시 보호 기법이다. ε 파라미터로 프라이버시와 모델 정확도의 트레이드오프를 제어한다.
大規模言語モデルの開発・デプロイ・運用を体系的に管理するための実践手法。プロンプト管理・評価パイプライン・コスト最適化などMLOpsの概念をLLM向けに拡張したものである。
대규모 언어 모델의 개발·배포·운영을 체계적으로 관리하기 위한 실천 기법이다. 프롬프트 관리·평가 파이프라인·비용 최적화 등 MLOps의 개념을 LLM용으로 확장한 것이다.
画像や映像から人体の関節位置を検出し、骨格構造を推定するAI技術。スポーツ分析、リハビリ支援、AR/VRアプリなどに活用される。
이미지나 영상에서 인체의 관절 위치를 감지하고 골격 구조를 추정하는 AI 기술로, 스포츠 분석, 재활 지원, AR/VR 앱 등에 활용된다.
推論時の計算量を増やすことでモデル性能を向上させる手法。ベストオブNサンプリングやツリーサーチなどにより、学習済みモデルのパラメータを変更せず出力品質を改善する。
추론 시 계산량을 늘려 모델 성능을 향상시키는 기법. 베스트 오브 N 샘플링이나 트리 서치 등을 통해 학습된 모델의 파라미터를 변경하지 않고 출력 품질을 개선한다.
AIモデルの学習・推論を支える計算資源や基盤環境の総称。GPU/TPUクラスタ、分散ストレージ、MLOpsパイプラインなどを含む。
AI 모델의 학습 및 추론을 지원하는 컴퓨팅 자원과 기반 환경의 총칭. GPU/TPU 클러스터, 분산 스토리지, MLOps 파이프라인 등을 포함한다.
GitHub CopilotやCursorなどのAIツールがコード補完・生成・レビューを自動支援する機能。開発効率の向上やボイラープレート削減に活用される。
GitHub Copilot이나 Cursor 같은 AI 툴이 코드 자동완성·생성·리뷰를 지원하는 기능으로, 개발 효율 향상과 보일러플레이트 코드 감소에 활용된다.
学習済みモデルを本番環境にデプロイし、リアルタイムに推論リクエストを処理できるよう配信・運用する仕組み。レイテンシやスループットの最適化が運用上の重要課題となる。
학습된 모델을 프로덕션 환경에 배포하고 실시간으로 추론 요청을 처리할 수 있도록 운영하는 구조이다. 레이턴시와 처리량의 최적화가 운영상 중요한 과제가 된다.
AIを活用して業務プロセスの各ステップを自動化する仕組みの設計。データ入力、承認フロー、レポート生成などの定型業務を効率化する。
AI를 활용하여 업무 프로세스의 각 단계를 자동화하는 구조의 설계. 데이터 입력, 승인 플로우, 보고서 생성 등의 정형 업무를 효율화한다.
Variational Autoencoderの略。潜在空間に確率分布を学習させる生成モデル。画像生成や異常検知に活用され、拡散モデルの構成要素としても使用される。
Variational Autoencoder의 약자이다. 잠재 공간에 확률 분포를 학습시키는 생성 모델로, 이미지 생성이나 이상 탐지에 활용되며 확산 모델의 구성 요소로도 사용된다.
特定の話者の声質・話し方を学習し、その人物そっくりの音声を合成するAI技術。少量の音声サンプルから高精度な音声複製が可能で、コンテンツ制作やアクセシビリティに応用される。
특정 화자의 음질·말투를 학습하여 그 인물과 흡사한 음성을 합성하는 AI 기술. 소량의 음성 샘플로 고정밀 음성 복제가 가능하며, 콘텐츠 제작이나 접근성에 응용된다.
AIや統計モデルを用いてテキストを自動翻訳する技術。DeepLやGoogle翻訳などがNMT(ニューラル機械翻訳)を採用し、精度が大幅に向上している。
AI나 통계 모델을 사용하여 텍스트를 자동 번역하는 기술. DeepL이나 Google 번역 등이 NMT(신경망 기계 번역)를 채택하여 정확도가 크게 향상되었다.
テキストから人名・地名・組織名・日付などの固有表現(エンティティ)を自動的に識別・抽出するNLP技術。情報抽出や検索精度向上に活用される。
텍스트에서 인명·지명·조직명·날짜 등의 고유 표현(개체)을 자동으로 식별하고 추출하는 NLP 기술로, 정보 추출 및 검색 정확도 향상에 활용된다.
機械学習モデルの開発・学習・デプロイ・監視を自動化・継続化するための一連のワークフロー。CI/CDの概念をML領域に適用したもの。
머신러닝 모델의 개발·학습·배포·모니터링을 자동화하고 지속화하기 위한 일련의 워크플로우. CI/CD 개념을 ML 영역에 적용한 것.
テキストをトークン(単語・文字・サブワードなど)に分割するモジュール。LLMや自然言語処理において、入力テキストをモデルが扱える数値IDに変換する前処理として不可欠。
텍스트를 토큰(단어·문자·서브워드 등)으로 분할하는 모듈. LLM 및 자연어 처리에서 입력 텍스트를 모델이 처리할 수 있는 숫자 ID로 변환하는 전처리 단계로 필수적이다.
BPEやUnigramなどのサブワードアルゴリズムの語彙サイズや分割粒度を調整し、特定言語・ドメインでのトークン効率を最大化する技術。多言語対応やコスト削減に直結する重要な最適化である。
BPE나 Unigram 등의 서브워드 알고리즘의 어휘 크기나 분할 입도를 조정하여 특정 언어·도메인에서의 토큰 효율을 극대화하는 기술. 다국어 대응이나 비용 절감에 직결되는 중요한 최적화이다.
Anthropicが策定したAIとツール・データソースを接続する標準プロトコル。LLMが外部ツールやリソースを統一されたインターフェースで利用できるようにし、エージェント開発を標準化する。
Anthropic이 책정한 AI와 툴·데이터 소스를 연결하는 표준 프로토콜. LLM이 외부 툴과 리소스를 통일된 인터페이스로 활용할 수 있게 하여 에이전트 개발을 표준화한다.
少数のサンプルデータからモデルが学習・推論するML手法。GPT等のLLMでプロンプトに少量の例示を与えることでタスクを解かせるFew-Shot Learningのこと。
소수의 샘플 데이터로 모델이 학습·추론하는 ML 기법. GPT 등 LLM의 프롬프트에 소량의 예시를 제공하여 태스크를 수행하게 하는 Few-Shot Learning을 말한다.
複数のAIエージェントやLLMの呼び出し、ツール実行などを自動的に制御・調整し、複雑なタスクを統括するワークフロー管理の仕組み。
여러 AI 에이전트나 LLM 호출, 도구 실행 등을 자동으로 제어·조정하여 복잡한 태스크를 통괄하는 워크플로 관리 체계.
AIがコードの不具合箇所を自動検出・原因分析・修正提案を行う支援機能。GitHub CopilotやCursorなどのツールが代表例で、デバッグ作業の効率を大幅に向上させる。
AI가 코드의 버그를 자동으로 감지하고 원인을 분석하여 수정 방안을 제안하는 지원 기능. GitHub Copilot이나 Cursor 등의 도구가 대표적이며, 디버깅 작업의 효율을 크게 향상시킨다.
事前学習済みモデルの知識を別タスクに転用する手法。少ないデータでも高精度なモデル構築が可能で、Fine-tuningと組み合わせて活用されることが多い。
사전 학습된 모델의 지식을 다른 태스크에 전용하는 기법. 적은 데이터로도 높은 정확도의 모델 구축이 가능하며, Fine-tuning과 함께 활용되는 경우가 많다.
機械学習モデルの開発・デプロイ・運用を効率化するための実践手法。DevOpsの概念をML領域に応用し、モデルのライフサイクル全体を自動化・標準化する。
머신러닝 모델의 개발·배포·운영을 효율화하기 위한 실천 방법론. DevOps 개념을 ML 영역에 적용하여 모델 라이프사이클 전체를 자동화·표준화한다.
入力データの各要素に対して重要度の重みを動的に付与し、関連性の高い情報に注目する仕組み。トランスフォーマーの中核技術で、文脈理解や長距離依存関係の学習を可能にする。
입력 데이터의 각 요소에 중요도 가중치를 동적으로 부여하여 관련성이 높은 정보에 주목하는 구조이다. 트랜스포머의 핵심 기술로, 문맥 이해와 장거리 의존 관계 학습을 가능하게 한다.
文書全体のコンテキストを考慮した上でチャンクに分割するRAGの前処理手法。従来の先にチャンキングしてからエンベディングする方式より文脈の喪失が少なく、検索精度が向上する。
문서 전체의 컨텍스트를 고려한 후에 청크로 분할하는 RAG의 전처리 기법이다. 기존의 먼저 청킹한 후 임베딩하는 방식보다 문맥 손실이 적어 검색 정확도가 향상된다.
OpenAIが開発した大規模言語モデル(LLM)。Generative Pre-trained Transformerの略で、テキスト生成・要約・翻訳・コード補完など多様なタスクに活用される。
OpenAI가 개발한 대규모 언어 모델(LLM). Generative Pre-trained Transformer의 약자로, 텍스트 생성·요약·번역·코드 보완 등 다양한 태스크에 활용된다.
AIの処理プロセスに人間の判断・承認ステップを組み込むワークフロー設計。高リスクな意思決定やセンシティブなタスクにおいて安全性と信頼性を確保するための重要なアプローチである。
AI의 처리 프로세스에 인간의 판단 및 승인 단계를 포함시키는 워크플로우 설계이다. 고위험 의사 결정이나 민감한 태스크에서 안전성과 신뢰성을 확보하기 위한 중요한 접근법이다.
クエリとドキュメントをそれぞれ独立したエンコーダーでベクトル化する検索モデル。事前にドキュメントをベクトル化しておけるため、大規模データに対する高速な検索が可能となる。
쿼리와 문서를 각각 독립된 인코더로 벡터화하는 검색 모델이다. 사전에 문서를 벡터화해 둘 수 있어 대규모 데이터에 대한 고속 검색이 가능하게 된다.
合成データでモデルを繰り返し学習させた際に、出力の多様性が失われて品質が劣化する現象。モデルコラプスとも関連し、実データの混合比率など学習データの管理が極めて重要になる。
합성 데이터로 모델을 반복 학습시킬 때 출력의 다양성이 상실되어 품질이 저하되는 현상이다. 모델 붕괴와도 관련이 있으며 실제 데이터 혼합 비율 등 학습 데이터의 신중한 관리가 요구된다.
LLMが外部ツールや関数を呼び出せる機能。AIが必要に応じてAPIや定義済み関数を実行し、リアルタイム情報取得や処理の自動化を実現する。
LLM이 외부 툴이나 함수를 호출할 수 있는 기능. AI가 필요에 따라 API나 정의된 함수를 실행하여 실시간 정보 획득 및 처리 자동화를 실현한다.
AIエージェントが自律的に判断・行動しながらタスクを連鎖的に実行するワークフロー。LLMベースのエージェントがツール呼び出しや外部API連携を通じて複雑な業務を自動化する仕組み。
AI 에이전트가 자율적으로 판단하고 행동하며 태스크를 연쇄적으로 실행하는 워크플로. LLM 기반 에이전트가 툴 호출 및 외부 API 연동을 통해 복잡한 업무를 자동화하는 구조.
画像内の各ピクセルをクラスごとに分類するコンピュータビジョン技術。物体検出より細かく、自動運転や医療画像解析などに活用されるディープラーニングの代表的なタスク。
이미지 내 각 픽셀을 클래스별로 분류하는 컴퓨터 비전 기술. 객체 감지보다 정밀하며 자율주행, 의료 이미지 분석 등에 활용되는 딥러닝의 대표적인 태스크.
AIがプログラムコードを自動的に生成する技術。GitHub CopilotやChatGPTなどのLLMを活用し、開発効率を大幅に向上させる。
AI가 프로그램 코드를 자동으로 생성하는 기술. GitHub Copilot이나 ChatGPT 등의 LLM을 활용하여 개발 효율을 크게 향상시킨다.
機械学習モデルの性能を精度・適合率・再現率・F1スコアなどの指標を用いて定量的に測定・検証するプロセス。
머신러닝 모델의 성능을 정확도, 정밀도, 재현율, F1 스코어 등의 지표를 사용해 정량적으로 측정하고 검증하는 프로세스.
テキストだけでなく画像、表、グラフなど複数のモダリティの情報を統合的に検索・参照して回答を生成するRAGの拡張手法。ドキュメント内の図表情報も含めた包括的な回答が可能になる。
텍스트뿐만 아니라 이미지, 표, 그래프 등 복수 모달리티의 정보를 통합적으로 검색·참조하여 답변을 생성하는 RAG의 확장 기법이다. 문서 내 도표 정보도 포함한 포괄적 답변이 가능해진다.
人間の選好データを用いてAIモデルの出力を望ましい方向に調整する学習手法の総称。RLHFやDPOなどが含まれ、有害な出力の抑制や回答品質の向上を目的として広く活用される。
인간의 선호 데이터를 활용하여 AI 모델의 출력을 바람직한 방향으로 조정하는 학습 기법의 총칭. RLHF나 DPO 등이 포함되며, 유해한 출력의 억제나 응답 품질 향상을 목적으로 널리 활용된다.
Reinforcement Learning from Human Feedback。人間のフィードバックを報酬信号として使い強化学習でLLMを調整する手法。ChatGPTなどの整合性向上に使われた。
인간 피드백 기반 강화학습. 인간의 피드백을 보상 신호로 사용해 강화학습으로 LLM을 조정하는 기법. ChatGPT 등의 정렬 향상에 사용됐다.
量子化されたモデルに対してLoRAアダプタを適用するメモリ効率の高いファインチューニング手法。4ビット量子化と組み合わせることで、消費者向けGPUでも大規模モデルの微調整が可能になる。
양자화된 모델에 LoRA 어댑터를 적용하는 메모리 효율이 높은 파인튜닝 기법이다. 4비트 양자화와 결합하여 소비자용 GPU에서도 대규모 모델의 미세 조정이 가능해진다.
データを中央サーバーに集めず、各デバイスやノードでローカルに学習し、モデルのパラメータのみを集約するプライバシー保護型の分散機械学習手法。
데이터를 중앙 서버에 모으지 않고 각 디바이스나 노드에서 로컬로 학습한 후, 모델 파라미터만을 집계하는 프라이버시 보호형 분산 머신러닝 기법.
学習時に特定のトリガーパターンを仕込み、推論時にそのトリガーが入力されると意図的に誤った出力を返すようモデルを操作する攻撃。通常の入力では正常に動作するため検出が困難である。
학습 시 특정 트리거 패턴을 심어두고, 추론 시 해당 트리거가 입력되면 의도적으로 잘못된 출력을 반환하도록 모델을 조작하는 공격이다. 일반 입력에서는 정상 동작하므로 탐지가 어렵다.
量子化・プルーニング・蒸留などの手法を組み合わせてモデルサイズを大幅に削減する総合的な技術。エッジデバイスへのデプロイやクラウド推論コスト削減を目的として実施される。
양자화·프루닝·증류 등의 기법을 조합하여 모델 크기를 대폭 줄이는 종합적인 기술이다. 엣지 디바이스 배포나 추론 비용 절감을 목적으로 실시된다.
PDFや画像などの非構造化ドキュメントからAIがテキストや表データを抽出・構造化する技術。OCRとNLPを組み合わせて実現する。
PDF나 이미지 등 비구조화 문서에서 AI가 텍스트와 표 데이터를 추출·구조화하는 기술. OCR과 NLP를 조합하여 구현한다.
ノイズを段階的に除去することで画像や音声などを生成するAIモデル。Stable DiffusionやDALL-Eなど画像生成AIの基盤技術として広く使われている。
노이즈를 단계적으로 제거하여 이미지나 음성 등을 생성하는 AI 모델. Stable Diffusion이나 DALL-E 등 이미지 생성 AI의 핵심 기반 기술로 널리 활용되고 있다.
検索やRAGシステムで一次取得した候補をより精度の高いモデルで再スコアリングし、関連性の高い順に並べ替える処理。検索精度向上に有効。
검색이나 RAG 시스템에서 1차 검색된 후보를 더 정밀한 모델로 재채점하여 관련성 높은 순서로 재정렬하는 처리. 검색 정확도 향상에 효과적.
LLMのAPIオプションで、モデルの出力を必ずJSON形式に強制する機能。OpenAIのAPIなどで利用でき、構造化データの取得やパースエラーの防止に有効。
LLM API 옵션으로, 모델의 출력을 반드시 JSON 형식으로 강제하는 기능. OpenAI API 등에서 활용 가능하며, 구조화된 데이터 취득 및 파싱 오류 방지에 효과적이다.
コードの生成・編集・実行・デバッグを自律的に行うAIエージェント。開発者の指示に基づいてファイル操作やテスト実行まで一貫して処理し、開発ワークフロー全体を支援する。
코드의 생성, 편집, 실행, 디버깅을 자율적으로 수행하는 AI 에이전트이다. 개발자의 지시에 따라 파일 조작이나 테스트 실행까지 일관되게 처리하여 개발 워크플로우 전체를 지원한다.
複数の自律的なAIエージェントが協調・競合しながら問題を解決するシステム。各エージェントが役割を分担し、複雑なタスクを並列処理できる。
여러 자율적인 AI 에이전트가 협력·경쟁하면서 문제를 해결하는 시스템. 각 에이전트가 역할을 분담하여 복잡한 작업을 병렬 처리할 수 있다.
LLMの推論時にAttention機構のKey・Valueを再計算せずキャッシュする技術。長文生成時のレイテンシ削減とGPUメモリ効率化に有効。
LLM 추론 시 Attention 메커니즘의 Key·Value를 재계산하지 않고 캐시하는 기술로, 장문 생성 시 레이턴시 감소와 GPU 메모리 효율화에 효과적입니다.
高次元データの次元削減手法。データの分散が最大となる方向(主成分)を求め、情報損失を最小化しながら特徴量を圧縮する機械学習の前処理技術。
고차원 데이터의 차원 축소 기법. 데이터의 분산이 최대가 되는 방향(주성분)을 구하여 정보 손실을 최소화하면서 특징을 압축하는 머신러닝 전처리 기술.
単一の層の行列演算を複数GPUに分割して並列実行する分散学習手法。モデルの各レイヤーのテンソル演算を水平分割することで、単一GPUに収まらない巨大モデルの学習と推論を実現する。
단일 레이어의 행렬 연산을 복수 GPU에 분할하여 병렬 실행하는 분산 학습 기법이다. 모델 각 레이어의 텐서 연산을 수평 분할함으로써 단일 GPU에 수용되지 않는 거대 모델의 학습과 추론을 실현한다.
ニューラルネットワーク内部の活性化ベクトルを操作し、モデルの振る舞いを制御する技法。特定の概念や方向性に対応する内部表現を発見・編集し、再学習なしで出力を調整する。
뉴럴 네트워크 내부의 활성화 벡터를 조작하여 모델의 동작을 제어하는 기법. 특정 개념이나 방향성에 대응하는 내부 표현을 발견·편집하여 재학습 없이 출력을 조정한다.
キーワード完全一致ではなく、文章の意味的な類似度に基づいて検索を行うシステム。エンベディングとベクトルDBを活用して構築する。
키워드 완전 일치가 아닌 문장의 의미적 유사도를 기반으로 검색을 수행하는 시스템. 임베딩과 벡터 DB를 활용하여 구축한다.
AIチャットボットなどに対し、システムに設定された制限や指示を無視させ、悪意のある動作を強制するような特殊な入力(プロンプト)を与えるサイバー攻撃の手法。
AI 챗봇 등에 시스템에 설정된 제한이나 지시를 무시하게 하고 악의적인 동작을 강제하는 특수한 입력(프롬프트)을 주는 사이버 공격 기법.
モデルの学習時に簡単なサンプルから徐々に難しいサンプルへと段階的にデータを提示する訓練手法。人間の学習過程を模倣し、収束速度の向上や汎化性能の改善が期待できる。
모델 학습 시 쉬운 샘플부터 점차 어려운 샘플로 단계적으로 데이터를 제시하는 훈련 기법이다. 인간의 학습 과정을 모방하여 수렴 속도 향상이나 일반화 성능 개선을 기대할 수 있다.
機械学習モデルの過学習を防ぐための手法。L1正則化(Lasso)やL2正則化(Ridge)などがあり、損失関数にペナルティ項を加えてモデルの複雑さを抑制する。
머신러닝 모델의 과적합을 방지하기 위한 기법. L1 정규화(Lasso)와 L2 정규화(Ridge) 등이 있으며, 손실 함수에 패널티 항을 추가하여 모델의 복잡도를 억제한다.
機械学習において、既存のデータに回転・反転・ノイズ追加などの変換を加えて訓練データを人工的に増やす手法。過学習の防止やモデルの汎化性能向上に有効。
머신러닝에서 기존 데이터에 회전, 반전, 노이즈 추가 등의 변환을 적용해 학습 데이터를 인위적으로 늘리는 기법. 과적합 방지 및 모델의 일반화 성능 향상에 효과적이다.
活性化値の分布を考慮してチャネルごとにスケーリングしてから量子化する手法。GPTQより高速に量子化でき、同等以上の精度を維持しながら推論速度も向上させる技術として注目されている。
활성화 값의 분포를 고려하여 채널별로 스케일링한 후 양자화하는 기법이다. GPTQ보다 빠르게 양자화할 수 있고 동등 이상의 정확도를 유지하면서 추론 속도도 향상시키는 기술이다.
Open Neural Network Exchangeの略。異なるフレームワーク間でモデルを相互運用するための標準フォーマット。PyTorchからTensorRTへの変換などに利用される。
Open Neural Network Exchange의 약자이다. 서로 다른 프레임워크 간에 모델을 상호 운용하기 위한 표준 포맷으로, PyTorch에서 TensorRT로의 변환 등에 사용된다.
入力テキストをあらかじめ定義されたカテゴリに分類するAIモデル。スパム判定、感情分析、チケット振り分けなどの業務に活用される。
입력 텍스트를 사전에 정의된 카테고리로 분류하는 AI 모델. 스팸 판정, 감정 분석, 티켓 분배 등의 업무에 활용된다.
初回検索で取得した候補結果をクエリとの関連性に基づいて再評価し、より適切な順に並べ替えるモデル。RAGパイプラインで検索精度を向上させるために初回検索の後段に配置される。
초기 검색에서 가져온 후보 결과를 재평가하여 쿼리와의 관련성이 높은 순서로 재정렬하는 모델이다. RAG 파이프라인에서 검색 정확도를 향상시키기 위해 초기 검색 후단에 배치된다.
自然言語処理モデルの性能評価指標の一つ。モデルがテキストをどれだけ予測できるかを示す値で、値が低いほど精度が高いことを意味する。また同名のAI検索エンジンサービスも存在する。
자연어 처리 모델의 성능 평가 지표 중 하나. 모델이 텍스트를 얼마나 잘 예측하는지를 나타내며, 값이 낮을수록 정확도가 높다는 것을 의미한다. 동명의 AI 검색 엔진 서비스도 존재한다.
機械学習モデル、データセット、AIアプリケーションを共有・公開するための世界最大のオープンソースプラットフォーム。「AI界のGitHub」とも呼ばれる。
머신러닝 모델, 데이터셋, AI 애플리케이션을 공유·공개하기 위한 세계 최대의 오픈소스 플랫폼. 'AI계의 GitHub'라고도 불린다.
AIエージェントが計画・ツール呼び出し・自己修正を繰り返しながら複雑なタスクを自律的に完遂するワークフローパターン。ReActやPlan-and-Executeなどが代表的。
AI 에이전트가 계획·툴 호출·자기 수정을 반복하며 복잡한 작업을 자율적으로 완수하는 워크플로 패턴. ReAct, Plan-and-Execute 등이 대표적.
トランスフォーマーの特定のアテンションヘッドが情報検索の役割を果たすという発見に基づく概念。特定のヘッドが長い文脈から関連情報を正確に取り出す能力を持っていることが判明している。
트랜스포머의 특정 어텐션 헤드가 정보 검색 역할을 수행한다는 발견에 기반한 개념이다. 특정 헤드가 긴 문맥에서 관련 정보를 정확하게 추출하는 능력을 갖고 있는 것으로 확인된다.
AIが長文テキストから重要な情報を抽出し、簡潔な要約を自動生成する技術。LLMを活用したRAGや文書処理パイプラインで広く活用される。
AI가 긴 텍스트에서 중요한 정보를 추출하여 간결한 요약을 자동 생성하는 기술. LLM을 활용한 RAG 및 문서 처리 파이프라인에서 널리 활용된다.
画像や音声、テキストなどのデータを意味のある領域や単位に分割する技術。画像セグメンテーションではピクセル単位で物体を識別し、自動運転や医療画像解析などに活用される。
이미지, 음성, 텍스트 등의 데이터를 의미 있는 영역이나 단위로 분할하는 기술. 이미지 세그멘테이션에서는 픽셀 단위로 객체를 식별하며, 자율주행이나 의료 영상 분석 등에 활용된다.
数値やログなどのデータをグラフ・チャート・ダッシュボードで視覚的に表現する手法。意思決定の迅速化やデータの傾向把握に活用される。
수치나 로그 등의 데이터를 그래프·차트·대시보드로 시각적으로 표현하는 기법. 의사결정 가속화 및 데이터 경향 파악에 활용된다.
複数のAIエージェントやツールを協調させて複雑なタスクを実行するためのソフトウェア基盤。LangGraphやCrewAIなどが代表例で、エージェント間の通信やタスク分配を管理する仕組みである。
여러 AI 에이전트와 도구를 협조시켜 복잡한 태스크를 실행하기 위한 소프트웨어 기반이다. LangGraph나 CrewAI 등이 대표적이며 에이전트 간 통신과 태스크 분배를 관리하는 구조이다.
複数の自律的なAIエージェントが協調・通信しながら問題を解決するシステム。各エージェントが役割を分担し、単一モデルでは困難なタスクを効率的に処理できる。
여러 자율 AI 에이전트가 협력하고 통신하며 문제를 해결하는 시스템. 각 에이전트가 역할을 분담하여 단일 모델로는 어려운 태스크를 효율적으로 처리할 수 있다.
大部分の次元がゼロで構成される低密度のベクトル表現。キーワードベースのマッチングに強く、BM25やSPLADEなどの手法で生成され、密ベクトルと組み合わせて使用されることが多い。
대부분의 차원이 0으로 구성된 저밀도 벡터 표현이다. 키워드 기반 매칭에 강하며, BM25나 SPLADE 등의 기법으로 생성되어 밀집 벡터와 조합하여 사용되기도 한다.
自然言語の指示や既存コードの文脈からソースコードを自動生成するAI技術。GitHub CopilotやCursorなどが代表的で、開発者の生産性を大幅に向上させるツールとして普及している。
자연어 지시나 기존 코드의 문맥에서 소스코드를 자동 생성하는 AI 기술이다. GitHub Copilot이나 Cursor 등이 대표적이며, 개발자의 생산성을 크게 향상시키는 도구로 보급되고 있다.
LLMへのリクエスト時に、同一プロンプトの前半部分をキャッシュして再利用する技術。APIコストの削減とレスポンス速度の向上が主な目的。
LLM에 요청 시 동일한 프롬프트의 앞부분을 캐시하여 재사용하는 기술. API 비용 절감과 응답 속도 향상이 주요 목적이다.
LLMの出力をJSON等の構造化フォーマットで返すよう制約する機能。後続処理のパースエラーを防ぎシステム連携の信頼性を向上させる。
LLM 출력을 JSON 등의 구조화된 형식으로 반환하도록 제약하는 기능. 후속 처리의 파싱 오류를 방지하고 시스템 연계 신뢰성을 높인다.
Transformerの推論時にKey-Valueの計算結果をキャッシュし再利用する最適化技法。自己回帰的なトークン生成において、過去のトークンの再計算を省略することで推論速度を大幅に向上させる。
Transformer의 추론 시 Key-Value 계산 결과를 캐시하여 재사용하는 최적화 기법이다. 자기회귀적 토큰 생성에서 과거 토큰의 재계산을 생략하여 추론 속도를 대폭 향상시킨다.
自動文章要約や機械翻訳の品質評価指標。生成テキストと参照テキストのn-gramや最長共通部分列の一致率を計算し、精度を定量化する。
자동 문장 요약 및 기계 번역의 품질 평가 지표. 생성된 텍스트와 참조 텍스트의 n-gram 및 최장 공통 부분 수열 일치율을 계산하여 정확도를 정량화한다.
Microsoftが開発した大規模モデル学習のための分散学習ライブラリ。ZeROオプティマイザによるメモリ最適化やパイプライン並列など、数十億パラメータ規模のモデル訓練を効率化する技術群を提供する。
Microsoft가 개발한 대규모 모델 학습을 위한 분산 학습 라이브러리이다. ZeRO 옵티마이저를 통한 메모리 최적화와 파이프라인 병렬 등 수십억 파라미터 규모의 모델 훈련을 효율화하는 기술군을 제공한다.
複数のAIエージェントが協調動作するシステムのデバッグ手法。エージェント間のメッセージフローやステート遷移を可視化し、障害点を特定して問題を切り分ける技術的手法である。
여러 AI 에이전트가 협조 동작하는 시스템의 디버깅 기법이다. 에이전트 간 메시지 플로우와 상태 전이를 시각화하고 장애 지점을 특정하여 문제를 분리하는 기술적 기법이다.
LLMに特定のプロンプトを与えて学習データに含まれる個人情報や機密データを引き出す攻撃手法。モデルの記憶性を悪用してプライバシーリスクを顕在化させるため、対策が不可欠である。
LLM에 특정 프롬프트를 주어 학습 데이터에 포함된 개인정보나 기밀 데이터를 추출하는 공격 기법이다. 모델의 기억성을 악용하여 프라이버시 리스크를 현재화시키므로 대책이 필수적이다.
複数回の対話を通じてユーザーの要件を段階的に明確化し、タスクを遂行するAIエージェント。曖昧な指示にも対話的に確認を行いながら処理を進め、ユーザー体験を向上させる。
복수 회의 대화를 통해 사용자의 요건을 단계적으로 명확화하여 태스크를 수행하는 AI 에이전트이다. 모호한 지시에도 대화적으로 확인하며 처리가 진행된다.
画像と自然言語を統合的に処理できるマルチモーダルAIモデル。画像の内容理解・視覚的質問応答・画像キャプション生成など、視覚と言語を横断する多様なタスクに対応する。
이미지와 자연어를 통합적으로 처리할 수 있는 멀티모달 AI 모델. 이미지 내용 이해·시각적 질의응답·이미지 캡션 생성 등 시각과 언어를 횡단하는 다양한 태스크에 대응한다.
テキストの感情分析・エンティティ抽出・構文解析などを行うAI系APIの総称。GoogleのCloud Natural Language APIが代表的で、NLPタスクを簡単に実装できる。
텍스트의 감정 분석, 엔티티 추출, 구문 분석 등을 수행하는 AI 계열 API의 총칭. Google의 Cloud Natural Language API가 대표적이며, NLP 작업을 손쉽게 구현할 수 있다.
LLMに対して指示文と応答のペアデータを用いてファインチューニングを行う手法。モデルが自然言語の指示に従って適切に応答できるよう訓練する。
LLM에 지시문과 응답 쌍 데이터를 활용해 파인튜닝을 수행하는 기법. 모델이 자연어 지시에 따라 적절히 응답할 수 있도록 훈련한다.
エージェントが環境と試行錯誤しながら報酬を最大化する方策を学習するML手法。ゲームAIや自律制御など複雑な意思決定タスクに活用される。
에이전트가 환경과 시행착오를 반복하며 보상을 최대화하는 정책을 학습하는 ML 기법. 게임 AI나 자율 제어 등 복잡한 의사결정 태스크에 활용된다.
長いプロンプトから冗長な情報を除去して入力トークン数を削減する技術。LLMLinguaなどの手法により、プロンプトを50〜80%圧縮しても出力品質をほぼ維持できることが特徴である。
긴 프롬프트에서 중복된 정보를 제거하여 입력 토큰 수를 줄이는 기술이다. LLMLingua 등의 기법으로 프롬프트를 50~80% 압축해도 출력 품질을 거의 유지할 수 있는 것이 특징이다.
事前学習済みモデルを特定タスク向けに追加学習させる手法。転移学習の一種で、少量データでも高精度なモデルを構築できる。LLMやCNNで広く活用される。
사전 학습된 모델을 특정 태스크에 맞게 추가 학습시키는 기법. 전이 학습의 일종으로, 소량의 데이터로도 높은 정확도의 모델을 구축할 수 있으며 LLM과 CNN에서 널리 활용된다.
LLMへの入力プロンプトを再利用可能なテンプレートとして管理する手法。変数埋め込みにより一貫した品質のプロンプトを生成する。
LLM 입력 프롬프트를 재사용 가능한 템플릿으로 관리하는 기법. 변수 삽입으로 일관된 품질의 프롬프트를 생성한다.
Googleが開発したTransformerベースの自然言語処理モデル。双方向のコンテキスト学習により、文章の意味理解・質問応答・感情分析など幅広いNLPタスクに活用される。
Google이 개발한 Transformer 기반 자연어 처리 모델. 양방향 컨텍스트 학습을 통해 문장 의미 이해, 질문 응답, 감성 분석 등 다양한 NLP 태스크에 활용된다.
Anthropicが提唱したAI安全性手法。AIが守るべき原則(憲法)を定義し、自己評価・改善を通じて有害な出力を抑制するアライメント技術。
Anthropic이 제안한 AI 안전성 기법으로, AI가 따라야 할 원칙(헌법)을 정의하고 자기 평가 및 개선을 통해 유해한 출력을 억제하는 얼라인먼트 기술입니다.
損失関数の値を最小化するためにパラメータを勾配の逆方向に反復的に更新する最適化アルゴリズム。SGDやAdamなどの派生手法があり、ニューラルネットワーク学習の基盤である。
손실 함수의 값을 최소화하기 위해 파라미터를 기울기의 역방향으로 반복적으로 갱신하는 최적화 알고리즘이다. SGD나 Adam 등의 파생 기법이 있으며, 신경망 학습의 기반이 된다.
モデルの内部表現空間で特定の方向を示すベクトルを加算・減算し、出力の振る舞いを制御する手法。ファインチューニング不要でモデルの出力傾向を柔軟に調整できる点が利点である。
모델의 내부 표현 공간에서 특정 방향을 나타내는 벡터를 가감하여 출력 동작을 제어하는 기법이다. 파인튜닝 없이 모델의 출력 경향을 유연하게 조정할 수 있는 점이 장점이다.
単一のLLMではなく、複数のモデル・ツール・検索エンジン等を組み合わせて高度なタスクを実行するAIシステム構成。RAGやエージェントが代表的な例で、単体モデルを超える性能を実現する。
단일 LLM이 아닌 복수의 모델, 도구, 검색 엔진 등을 조합하여 고도의 태스크를 실행하는 AI 시스템 구성이다. RAG나 에이전트가 대표적인 예이며 단일 모델을 넘는 성능을 실현한다.
LLMの出力が参照元の情報に基づいているかを自動的に検証するプロセス。ハルシネーションの検出と抑制を目的とし、引用元との照合や事実性チェックを体系的に行う仕組みである。
LLM의 출력이 참조원 정보에 기반하고 있는지를 자동으로 검증하는 프로세스. 환각 현상의 검출과 억제를 목적으로 하며, 인용원과의 대조와 사실성 확인을 체계적으로 수행하는 구조이다.
複数のクエリヘッドが同じKey-Valueヘッドを共有するアテンションの最適化手法。マルチヘッドアテンションのメモリ効率を改善し、KVキャッシュのサイズを削減しながら精度を維持する技術である。
여러 쿼리 헤드가 같은 Key-Value 헤드를 공유하는 어텐션의 최적화 기법이다. 멀티 헤드 어텐션의 메모리 효율을 개선하고 KV 캐시 크기를 줄이면서 정확도를 유지하는 기술이다.
ユーザーが過去に閲覧・評価したアイテムの特徴を分析し、類似コンテンツを推薦するレコメンデーション手法。アイテムのメタデータやテキスト情報を活用する。
사용자가 과거에 열람하거나 평가한 아이템의 특성을 분석하여 유사한 콘텐츠를 추천하는 추천 시스템 기법. 아이템의 메타데이터나 텍스트 정보를 활용한다.
トランスフォーマーの推論時に蓄積されるKey-Valueキャッシュを量子化やプルーニングで圧縮する技術。メモリ使用量を大幅に削減し、長いコンテキストでの推論を実現可能にする手法である。
트랜스포머 추론 시 축적되는 Key-Value 캐시를 양자화나 프루닝으로 압축하는 기술이다. 메모리 사용량을 대폭 줄여 긴 컨텍스트에서의 추론을 실현 가능하게 하는 기법이다.
モデルの学習を全データをまとめて一括処理する手法。オンライン学習と対比され、データが静的な場合や定期的な再学習に適している。
모델 학습을 전체 데이터를 한꺼번에 일괄 처리하는 방법. 온라인 학습과 대비되며, 데이터가 정적인 경우나 주기적인 재학습에 적합하다.
AIエージェントの性能・安全性・信頼性を体系的に評価するためのフレームワーク。タスク完了率、ツール使用の適切さ、安全性ガードレールの遵守度などを多角的に測定して品質を保証する仕組みである。
AI 에이전트의 성능·안전성·신뢰성을 체계적으로 평가하기 위한 프레임워크이다. 태스크 완료율, 도구 사용의 적절성, 안전성 가드레일 준수도 등을 다각적으로 측정하여 품질을 보장하는 구조이다.
短期・長期メモリ機構を備え、過去の対話や学習内容を保持・活用するAIエージェント。セッション間で文脈を維持し、ユーザーの嗜好や業務知識を蓄積して応答品質を高める。
단기·장기 메모리 메커니즘을 갖추고 과거 대화나 학습 내용을 보유·활용하는 AI 에이전트. 세션 간에 문맥을 유지하며, 사용자의 선호나 업무 지식을 축적하여 응답 품질을 높인다.
LLMが一度に処理できるトークン数の上限。入力と出力を合わせた範囲で、ウィンドウサイズが大きいほど長い文脈を保持できる。
LLM이 한 번에 처리할 수 있는 토큰 수의 상한선. 입력과 출력을 합친 범위로, 윈도우 크기가 클수록 더 긴 문맥을 유지할 수 있다.
テキスト・画像・音声などの異なるモダリティのデータを共通のベクトル空間に射影する技術。モダリティを横断した類似度計算や検索を可能にし、マルチモーダルAIの基盤となる。
텍스트·이미지·음성 등 서로 다른 모달리티의 데이터를 공통 벡터 공간에 사영하는 기술. 모달리티를 횡단한 유사도 계산이나 검색을 가능하게 하며, 멀티모달 AI의 기반이 된다.
機械学習モデルの学習前に設定するパラメータ(学習率・バッチサイズ・層数など)を最適化するプロセス。モデルの精度向上に直結する重要な工程。
머신러닝 모델 학습 전에 설정하는 파라미터(학습률·배치 크기·레이어 수 등)를 최적화하는 프로세스로, 모델 정확도 향상에 직결되는 중요한 작업이다.
モデルが不確実性の高いサンプルを自ら選択してラベル付けを要求する機械学習手法。アノテーションコストを最小限に抑えながら効率的にモデル精度を向上させることができる。
모델이 불확실성이 높은 샘플을 스스로 선택하여 라벨링을 요청하는 머신러닝 기법이다. 어노테이션 비용을 최소화하면서 효율적으로 모델 정확도를 향상시킬 수 있다.
AIモデルの開発・学習・デプロイ・監視・更新・廃止までの全工程を体系的に管理するプロセス。モデルの品質維持とガバナンスを確保しつつ、継続的な改善サイクルを実現する。
AI 모델의 개발, 학습, 배포, 감시, 갱신, 폐지까지의 전 공정을 체계적으로 관리하는 프로세스이다. 모델의 품질 유지와 거버넌스를 확보하면서 지속적인 개선 사이클을 실현한다.
人間の脳の神経回路を模倣した機械学習モデル。複数の層を持つノード(ニューロン)が相互に接続され、データのパターン認識や予測を行う。深層学習の基盤技術。
인간 뇌의 신경 회로를 모방한 머신러닝 모델. 여러 계층의 노드(뉴런)가 상호 연결되어 데이터의 패턴 인식 및 예측을 수행하며, 딥러닝의 기반 기술이다.
初回検索で取得した候補をより高精度なモデルで再順位付けする二段階検索の手法。RAGにおいて初期検索結果の関連度を改善し、最終的な回答品質の向上に広く使用される。
초기 검색으로 취득한 후보를 더 높은 정확도의 모델로 재순위를 매기는 2단계 검색 기법이다. RAG에서 초기 검색 결과의 관련도를 개선하여 최종 응답 품질 향상에 널리 사용된다.
LLMに使用するプロンプトの変更履歴をGitのようにバージョン管理する運用手法。プロンプトの変更が品質に与える影響を追跡できる。
LLM에 사용하는 프롬프트의 변경 이력을 Git처럼 버전 관리하는 운영 기법. 프롬프트 변경이 품질에 미치는 영향을 추적할 수 있다.
AIモデルがどのように予測・判断を行ったかを人間が理解できる形で説明できる性質。モデルの透明性や信頼性確保のために重要な概念。
AI 모델이 어떻게 예측·판단을 수행했는지 인간이 이해할 수 있는 형태로 설명할 수 있는 성질. 모델의 투명성과 신뢰성 확보를 위해 중요한 개념.
ナレッジグラフ(知識のネットワーク構造)とRAG(検索拡張生成)を組み合わせた手法。単なる文書の類似度検索だけでなく、エンティティ間の関係性を辿ることでより複雑な質問に正確に答えられる。
지식 그래프(지식의 네트워크 구조)와 RAG(검색 증강 생성)를 결합한 기법. 단순한 문서 유사도 검색뿐만 아니라, 엔티티 간의 관계성을 추적하여 더 복잡한 질문에 정확하게 답할 수 있다.
Microsoftがオープンソースで提供する、LLMと従来のプログラミング言語(C#, Python, Java)を統合してCopilot的なAIエージェントを構築するためのSDK。
Microsoft가 오픈소스로 제공하는 SDK로, LLM과 기존 프로그래밍 언어(C#, Python, Java)를 통합하여 Copilot 같은 AI 에이전트를 구축할 수 있게 해준다.
機械学習モデルの学習や推論に使う特徴量(Feature)を一元管理・共有する基盤。特徴量の再利用や、学習時と推論時のデータの一貫性を保証する。
머신러닝 모델의 학습 및 추론에 사용하는 특징(Feature)을 중앙에서 관리하고 공유하는 인프라. 특징의 재사용 및 학습/추론 시의 데이터 일관성을 보장한다.
LLMが出力するトークンの確率分布を補正して、モデルの自信度と実際の正確性を一致させる技術。温度調整やラベルスムージングにより過信や過少信頼を是正し、信頼性の高い出力を実現する。
LLM이 출력하는 토큰의 확률 분포를 보정하여 모델의 자신감과 실제 정확성을 일치시키는 기술이다. 온도 조정이나 라벨 스무딩으로 과신이나 과소 신뢰를 시정하여 신뢰성 높은 출력을 실현한다.
AIモデルの脆弱性を自動的に探索・検出するセキュリティテスト手法。敵対的プロンプトを自動生成してガードレール突破を試み、モデルの安全性を体系的に評価・改善する。
AI 모델의 취약성을 자동으로 탐색·검출하는 보안 테스트 기법. 적대적 프롬프트를 자동 생성하여 가드레일 돌파를 시도하며, 모델의 안전성을 체계적으로 평가·개선한다.
公平性・透明性・プライバシー保護などの倫理的観点からAIを設計・運用する概念。バイアス排除や説明可能性(XAI)の確保が重要なテーマとなっている。
공정성·투명성·개인정보 보호 등 윤리적 관점에서 AI를 설계·운영하는 개념으로, 편향 제거와 설명 가능성(XAI) 확보가 핵심 과제이다.
Llama 3やMistralなどのオープンソースLLMを、Dockerのような手軽さでMac、Linux、Windowsのローカル環境にダウンロードして実行できるコマンドラインツール。
Llama 3이나 Mistral 같은 오픈소스 LLM을 Docker처럼 간편하게 Mac, Linux, Windows의 로컬 환경에 다운로드하여 실행할 수 있는 커맨드라인 툴.
テキスト生成時に複数の候補シーケンスを並行して探索し、全体として最も確率の高い出力を選択するデコーディング手法。ビーム幅を調整することで生成品質と計算コストのバランスを制御できる。
텍스트 생성 시 여러 후보 시퀀스를 병행 탐색하여 전체적으로 가장 확률이 높은 출력을 선택하는 디코딩 기법이다. 빔 폭을 조정하여 생성 품질과 계산 비용의 균형을 제어할 수 있다.
実データの代わりに人工的に生成された学習用データ。プライバシー保護やデータ不足の解消に活用され、AIモデルの訓練品質向上に貢献する。
실제 데이터 대신 인공적으로 생성된 학습용 데이터. 개인정보 보호 및 데이터 부족 문제 해결에 활용되며, AI 모델의 학습 품질 향상에 기여한다.
AIコーディング支援ツールと開発者が協働してコードを書く開発手法。GitHub CopilotやCursorなどのツールで実現される。
AI 코딩 지원 도구와 개발자가 협업하여 코드를 작성하는 개발 기법. GitHub Copilot이나 Cursor 등의 도구로 실현된다.
LLMが生成する回答を、信頼性の高い外部データや事実に基づかせる手法。RAGなどを用いてハルシネーションを防ぎ、回答の正確性・信頼性を高める。
LLM이 생성하는 답변을 신뢰성 높은 외부 데이터나 사실에 기반하게 만드는 기법. RAG 등을 활용하여 환각 현상을 방지하고 답변의 정확성과 신뢰성을 높인다.
複数の機械学習モデルを組み合わせて予測精度を向上させる手法。バギング・ブースティング・スタッキングなどが代表的で、単一モデルより汎化性能が高い。
여러 머신러닝 모델을 결합하여 예측 정확도를 향상시키는 기법. 배깅·부스팅·스태킹 등이 대표적이며, 단일 모델보다 일반화 성능이 높다.
OSの仮想メモリ管理を模倣し、KVキャッシュをブロック単位で動的に管理する推論最適化技法。メモリの断片化を解消し、複数リクエストの同時処理時のGPUメモリ効率を大幅に改善する。
OS의 가상 메모리 관리를 모방하여 KV 캐시를 블록 단위로 동적 관리하는 추론 최적화 기법이다. 메모리 단편화를 해소하고 여러 요청의 동시 처리 시 GPU 메모리 효율을 대폭 개선한다.
LLMへの入出力を監視・フィルタリングし、不正利用や情報漏洩を防止するセキュリティ層。プロンプトインジェクション検出・PII除去・有害コンテンツブロックなどの機能を統合する。
LLM에 대한 입출력을 감시·필터링하여 부정 이용이나 정보 유출을 방지하는 보안 계층. 프롬프트 인젝션 검출·PII 제거·유해 콘텐츠 차단 등의 기능을 통합한다.
専門家の行動データから報酬関数を推定する手法。明示的な報酬設計が困難なタスクにおいて、観測された行動パターンからエージェントが最適化すべき目的を自動的に導出できる。
전문가의 행동 데이터에서 보상 함수를 추정하는 기법이다. 명시적인 보상 설계가 어려운 태스크에서 관측된 행동 패턴으로부터 에이전트가 최적화해야 할 목적을 자동으로 도출할 수 있다.
数十億パラメータ以下の軽量な言語モデル。エッジデバイスやオンプレミス環境での推論に適し、特定ドメインへの特化やプライバシー重視の用途でLLMの代替として活用される。
수십억 파라미터 이하의 경량 언어 모델. 엣지 디바이스나 온프레미스 환경에서의 추론에 적합하며, 특정 도메인 특화나 프라이버시 중시 용도에서 LLM의 대안으로 활용된다.
テキスト生成時に既出のトークンの出現確率を低下させ、同じフレーズの繰り返しを防止するデコーディングパラメータ。値を上げすぎると不自然な文になるため適切な調整が重要である。
텍스트 생성 시 기출 토큰의 출현 확률을 낮춰 같은 구문의 반복을 방지하는 디코딩 파라미터이다. 값을 과도하게 높이면 부자연스러운 문장이 되므로 적절한 조정이 중요하다.
テキストプロンプトからAIが画像を自動生成する技術。Stable Diffusion、DALL-E、Midjourneyなどのモデルが業務利用されている。
텍스트 프롬프트에서 AI가 이미지를 자동 생성하는 기술. Stable Diffusion, DALL-E, Midjourney 등의 모델이 업무에 사용되고 있다.
画像やスキャンされた文書から文字を自動で読み取りテキストデータに変換する技術。OCRとも呼ばれ、請求書や契約書のデジタル化に広く活用される。
이미지나 스캔된 문서에서 문자를 자동으로 읽어 텍스트 데이터로 변환하는 기술. OCR이라고도 하며, 청구서나 계약서의 디지털화에 널리 활용된다.
出力層から入力層に向かって誤差を逆方向に伝搬し、連鎖律を用いて各パラメータの勾配を効率的に計算するアルゴリズム。ニューラルネットワークの学習において不可欠な手法である。
출력층에서 입력층을 향해 오차를 역방향으로 전파하여 연쇄 법칙을 이용해 각 파라미터의 기울기를 효율적으로 계산하는 알고리즘이다. 신경망 학습에서 필수적인 기법이다.
複数のAIエージェントが役割分担しながら連携して問題を解決する手法。LLMベースのシステムで、計画・実行・検証などを別々のエージェントが担う構成が主流。
여러 AI 에이전트가 역할을 분담하며 협력해 문제를 해결하는 기법. LLM 기반 시스템에서 계획·실행·검증 등을 개별 에이전트가 담당하는 구성이 주류.
AIモデルの出力を信頼性の高い外部データや事実情報に基づかせる手法。RAGなどを用いてハルシネーションを抑制し、回答の根拠を明確にする。
AI 모델의 출력을 신뢰성 높은 외부 데이터나 사실 정보에 기반하게 하는 기법. RAG 등을 활용해 환각을 억제하고 응답의 근거를 명확히 한다.
テキスト・画像・音声など異なるモダリティのデータを同一ベクトル空間に変換する埋め込みモデル。モダリティ間の類似検索やクロスモーダルな検索システムの構築に使われる技術である。
텍스트, 이미지, 음성 등 서로 다른 모달리티의 데이터를 동일 벡터 공간에 변환하는 임베딩 모델이다. 모달리티 간의 유사 검색이나 크로스 모달 검색 시스템 구축에 사용되는 기술이다.
大規模な教師モデルの知識を小さな生徒モデルに転移させる学習手法。モデルの軽量化・推論高速化を目的とし、エッジデバイスへのAI展開に活用される。
대규모 교사 모델의 지식을 작은 학생 모델로 전이시키는 학습 기법. 모델 경량화 및 추론 속도 향상을 목적으로 하며, 엣지 디바이스에 AI를 배포할 때 활용된다.
大規模言語モデルが一度に処理できるトークン数の上限。入力と出力の合計がこの制限を超えると処理できないため、プロンプト設計やRAGの導入で対処する必要がある。
대규모 언어 모델이 한 번에 처리할 수 있는 토큰 수의 상한이다. 입력과 출력의 합계가 이 제한을 초과하면 처리할 수 없으므로 프롬프트 설계나 RAG 도입으로 대처해야 한다.
学習データに悪意あるサンプルを混入させてモデルの動作を操作するポイズニング攻撃を検出する技術。データクリーニングや異常検知を通じて学習データの健全性を確保する防御的な手法である。
학습 데이터에 악의적인 샘플을 혼입시켜 모델 동작을 조작하는 포이즈닝 공격을 탐지하는 기술이다. 데이터 클리닝과 이상 탐지를 통해 학습 데이터의 건전성을 확보하는 방어적 기법이다.
学習などに使用するデータの集合。
학습 등에 사용하는 데이터의 집합.
低解像度の画像や動画をAI・ディープラーニングを用いて高解像度に変換する技術。SRCNNやESRGANなどのモデルが代表的で、画像補正・医療画像・映像処理に活用される。
저해상도 이미지나 영상을 AI·딥러닝을 활용해 고해상도로 변환하는 기술입니다. SRCNN, ESRGAN 등의 모델이 대표적이며, 이미지 보정·의료 영상·영상 처리에 활용됩니다.
GPUメモリのIO効率を最適化し、Transformerの自己注意機構を高速化するアルゴリズム。メモリ使用量をシーケンス長に対して線形に抑え、長文処理の性能を大幅に改善する。
GPU 메모리의 IO 효율을 최적화하여 Transformer의 자기 주의 메커니즘을 고속화하는 알고리즘. 메모리 사용량을 시퀀스 길이에 대해 선형으로 억제하여 장문 처리 성능을 크게 개선한다.
AI学習用データセットのメタデータを一元管理し、検索・再利用を容易にするための仕組み。データの品質や出所を追跡でき、MLプロジェクト全体の生産性向上とデータガバナンスの強化に貢献する。
AI 학습용 데이터셋의 메타데이터를 일원 관리하여 검색 및 재사용을 용이하게 하는 구조이다. 데이터의 품질과 출처를 추적할 수 있어 ML 프로젝트 전체의 생산성 향상과 데이터 거버넌스 강화에 기여한다.
自然言語で入力された質問に対して、AIが文書や知識ベースを検索・分析し、適切な回答を自動生成するシステム。QAシステムとも呼ばれる。
자연어로 입력된 질문에 대해 AI가 문서나 지식 베이스를 검색·분석하여 적절한 답변을 자동으로 생성하는 시스템. QA 시스템이라고도 불린다.
実データの代わりにAIを使って人工的な学習データを生成する手法。プライバシー保護やデータ不足の解消に活用される。
실제 데이터 대신 AI를 사용하여 인공적인 학습 데이터를 생성하는 기법. 프라이버시 보호와 데이터 부족 해소에 활용된다.
画像や動画をコンピュータが解析・理解する技術。物体検出、顔認識、OCRなどに応用され、AIモデルと組み合わせて活用されることが多い。
이미지와 동영상을 컴퓨터가 분석하고 이해하는 기술. 객체 감지, 얼굴 인식, OCR 등에 활용되며 AI 모델과 결합하여 사용되는 경우가 많다.
長文コンテキスト内に埋め込まれた特定情報をLLMが正確に検索・抽出できるかを評価するベンチマーク手法。モデルのロングコンテキスト処理能力と位置バイアスを定量的に測定する。
장문 컨텍스트 내에 삽입된 특정 정보를 LLM이 정확히 검색·추출할 수 있는지 평가하는 벤치마크 기법이다. 모델의 롱 컨텍스트 처리 능력과 위치 바이어스를 정량적으로 측정한다.
テキスト・画像・音声などの異なるモダリティのデータを同一のベクトル空間に写像する技術。CLIPやImageBindなどにより、モダリティを跨いだ類似度計算や検索を可能にする基盤技術である。
텍스트·이미지·음성 등 서로 다른 모달리티의 데이터를 동일한 벡터 공간에 사상하는 기술이다. CLIP이나 ImageBind 등을 통해 모달리티를 넘나드는 유사도 계산이나 검색을 가능하게 하는 기반 기술이다.
クエリと文書のペアを同時にエンコードし、関連度スコアを直接算出するモデル。バイエンコーダーより高精度だが計算コストが高く、リランキング段階で使用されることが多い。
쿼리와 문서 쌍을 동시에 인코딩하여 관련도 스코어를 직접 산출하는 모델이다. 바이 인코더보다 고정밀이지만 계산 비용이 높아 리랭킹 단계에서 사용되는 경우가 많다.
CoTと略されるプロンプト手法。「ステップバイステップで考えてください」と指示することで、LLMに途中計算や論理的推論の過程を出力させ、複雑な問題の正答率を劇的に引き上げる技術。
CoT로 약칭되는 프롬프트 기법. '단계별로 생각해 보세요'라고 지시함으로써 LLM이 중간 계산이나 논리적 추론 과정을 출력하게 하여 복잡한 문제의 정답률을 극적으로 끌어올리는 기술.
テキストや画像などのデータを高次元のベクトル空間に変換するプロセス。RAGや類似度検索、レコメンドシステム構築に不可欠な前処理ステップ。
텍스트나 이미지 등의 데이터를 고차원 벡터 공간으로 변환하는 프로세스. RAG나 유사도 검색, 추천 시스템 구축에 필수적인 전처리 단계.
AIモデルの性能を標準化されたタスクやデータセットで客観的に評価する手法。MMLU、HumanEvalなどのベンチマークが広く使用される。
AI 모델의 성능을 표준화된 태스크와 데이터셋으로 객관적으로 평가하는 기법. MMLU, HumanEval 등의 벤치마크가 널리 사용된다.
自律的に目標を設定・実行し、環境からフィードバックを受けながらタスクを完遂するAIシステム。LLMをベースに外部ツールやAPIと連携して複雑な処理を自動化する。
자율적으로 목표를 설정·실행하고 환경으로부터 피드백을 받으며 태스크를 완수하는 AI 시스템. LLM을 기반으로 외부 툴이나 API와 연계하여 복잡한 처리를 자동화한다.
モデルのパラメータを更新せず、プロンプト内の例示や指示だけでタスクを学習させる手法。Few-ShotやZero-Shotがこの一形態であり、LLMの最も重要な特性の一つである。
모델의 파라미터를 업데이트하지 않고 프롬프트 내 예시나 지시만으로 태스크를 학습시키는 기법이다. Few-Shot과 Zero-Shot이 이 형태에 해당하며, LLM의 가장 중요한 특성 중 하나이다.
GPUメモリ不足時に複数ミニバッチの勾配を加算してからパラメータ更新する手法。小さなバッチでも大バッチと同等の学習効果を得られる。
GPU 메모리 부족 시 복수 미니배치의 기울기를 합산한 후 파라미터를 업데이트하는 기법. 작은 배치로도 큰 배치와 동등한 학습 효과를 얻을 수 있다.
LLMの出力が安全性・正確性・倫理基準を満たすよう、入出力の検証ルールやフィルターを体系的に設計するプロセス。有害コンテンツの遮断や個人情報の保護など本番運用の品質保証に不可欠である。
LLM의 출력이 안전성, 정확성, 윤리 기준을 충족하도록 입출력의 검증 규칙이나 필터를 체계적으로 설계하는 프로세스이다. 유해 콘텐츠 차단이나 개인 정보 보호 등 프로덕션 운용의 품질이 보증된다.
テキストや画像などをベクトル化し、意味的な類似度をもとに検索する手法。キーワード一致ではなくembeddingを活用するため、曖昧なクエリにも対応できる。
텍스트나 이미지 등을 벡터화하여 의미적 유사도를 기반으로 검색하는 기법. 키워드 일치가 아닌 embedding을 활용하므로 모호한 쿼리에도 대응할 수 있다.
モデルの層を複数のGPUに分割し、マイクロバッチをパイプライン的に流して並列処理する分散学習手法。GPU間のアイドル時間(バブル)を最小化しつつ、メモリ制約を超えた大規模学習を可能にする。
모델의 레이어를 복수 GPU에 분할하고 마이크로 배치를 파이프라인 형태로 흘려 병렬 처리하는 분산 학습 기법이다. GPU 간 유휴 시간(버블)을 최소화하면서 메모리 제약을 초과한 대규모 학습을 가능하게 한다.
AI推論が失敗した際に代替モデルやルールベース処理に切り替える設計パターン。サービスの可用性を維持するために不可欠な仕組みである。
AI 추론이 실패했을 때 대체 모델이나 규칙 기반 처리로 전환하는 설계 패턴. 서비스 가용성을 유지하기 위해 필수적인 구조이다.
LLMを使って非構造化テキストからJSON等の構造化データを抽出する技術。文書解析やデータ入力の自動化、情報マイニングなど幅広い業務プロセスの効率化に活用される。
LLM을 사용하여 비구조화 텍스트에서 JSON 등의 구조화 데이터를 추출하는 기술이다. 문서 해석이나 데이터 입력 자동화, 정보 마이닝 등 폭넓은 업무 프로세스의 효율화에 활용된다.
エンコーダーを使わずデコーダーのみでマルチモーダル入力を処理するアーキテクチャ。画像やテキストを統一的なトークン列として扱い、モデル構造をシンプルに保ちながらマルチモーダル能力を実現する。
인코더를 사용하지 않고 디코더만으로 멀티모달 입력을 처리하는 아키텍처이다. 이미지와 텍스트를 통일적인 토큰열로 취급하여 모델 구조를 심플하게 유지하면서 멀티모달 능력을 실현한다.
学習済みAIモデルを共有・配布・販売するためのプラットフォーム。モデルの検索、性能比較、ライセンス管理、ダウンロードをワンストップで行える環境を開発者に提供する。
학습된 AI 모델을 공유, 배포, 판매하기 위한 플랫폼이다. 모델의 검색, 성능 비교, 라이선스 관리, 다운로드를 원스톱으로 수행할 수 있는 환경을 개발자에게 제공한다.
テキスト・画像・コードなどを自動生成するAI技術。ChatGPTやGeminiなどが代表例で、業務効率化やコンテンツ生成に広く活用されている。
텍스트·이미지·코드 등을 자동으로 생성하는 AI 기술. ChatGPT나 Gemini 등이 대표적인 예이며, 업무 효율화 및 콘텐츠 생성에 널리 활용되고 있다.
テキストや画像を高次元ベクトルに変換する専用モデル。検索・分類・クラスタリングなどの下流タスクの基盤として使用される。
텍스트나 이미지를 고차원 벡터로 변환하는 전용 모델. 검색·분류·클러스터링 등 하류 태스크의 기반으로 사용된다.
小型モデルで先に複数トークンを予測し、大型モデルで一括検証することで推論速度を高速化する手法。品質を維持したまま高速化できる。
소형 모델로 먼저 복수 토큰을 예측하고 대형 모델로 일괄 검증하여 추론 속도를 고속화하는 기법. 품질을 유지하면서 고속화할 수 있다.
長いコンテキストやシステムプロンプトの情報をモデルの重みに圧縮して取り込む技術。推論時のトークン消費を削減しつつ必要な知識を保持し、応答速度とコストを同時に改善する。
긴 컨텍스트나 시스템 프롬프트의 정보를 모델의 가중치에 압축하여 취합하는 기술이다. 추론 시 토큰 소비를 절감하면서 필요한 지식을 보유하고 응답 속도와 비용을 동시에 개선한다.
AIシステムの導入・運用に伴うリスクを体系的に評価する手法。バイアス、セキュリティ、プライバシーなどの観点で影響度を分析する。
AI 시스템 도입·운영에 따른 리스크를 체계적으로 평가하는 기법. 편향, 보안, 프라이버시 등의 관점에서 영향도를 분석한다.
RAGシステムにおいて生成された回答が検索されたコンテキストにどれだけ忠実かを測る評価指標。ハルシネーション抑制の度合いを定量的に把握でき、RAGの品質管理に不可欠な指標である。
RAG 시스템에서 생성된 응답이 검색된 컨텍스트에 얼마나 충실한지를 측정하는 평가 지표이다. 환각 현상 억제 정도를 정량적으로 파악할 수 있으며 RAG의 품질 관리에 불가결한 지표이다.
ノイズから画像・音声・動画を生成する生成AIモデル。Stable Diffusion・DALL-E・Midjourneyに採用されており、高品質なコンテンツ生成の中心技術となっている。
노이즈에서 이미지·음성·동영상을 생성하는 생성 AI 모델. Stable Diffusion·DALL-E·Midjourney에 채용되어, 고품질 콘텐츠 생성의 핵심 기술이 되었다.
AIで生成した合成データが実データの統計的特性を正しく再現しているかを検証・管理するプロセス。分布比較テストや下流タスクでの性能検証を通じて、合成データの信頼性を担保する。
AI로 생성한 합성 데이터가 실제 데이터의 통계적 특성을 올바르게 재현하고 있는지를 검증·관리하는 프로세스. 분포 비교 테스트나 다운스트림 태스크에서의 성능 검증을 통해 합성 데이터의 신뢰성을 담보한다.
入力内容の複雑度に応じて最適なLLMモデルに推論リクエストを振り分ける技術。簡単なクエリには小型モデル、複雑なクエリには大型モデルを使い分けることでコストと品質を最適化する。
입력 내용의 복잡도에 따라 최적의 LLM 모델에 추론 요청을 분배하는 기술이다. 간단한 쿼리에는 소형 모델, 복잡한 쿼리에는 대형 모델을 사용하여 비용과 품질을 최적화한다.
RAGシステムにおいてユーザーのクエリを複数のバリエーションに変換・拡張し、検索の網羅性と再現率を向上させる手法。HyDEやマルチクエリリライトなどのアプローチがある。
RAG 시스템에서 사용자의 쿼리를 여러 변형으로 변환·확장하여 검색의 포괄성과 재현율을 향상시키는 기법이다. HyDE나 멀티 쿼리 리라이트 등의 접근법이 있다.
人間が日常的に使う言語をコンピュータで解析・生成する技術。テキスト分類、翻訳、感情分析、チャットボットなど幅広いAIアプリケーションの基盤となる。
인간이 일상적으로 사용하는 언어를 컴퓨터로 분석·생성하는 기술. 텍스트 분류, 번역, 감정 분석, 챗봇 등 다양한 AI 애플리케이션의 기반이 된다.
モデルのレイヤーを複数のGPUに段階的に分配し、マイクロバッチをパイプライン的に処理する分散学習手法。GPUの待機時間を最小化しつつ、超大規模モデルの効率的な並列訓練を実現する。
모델의 레이어를 여러 GPU에 단계적으로 분배하고 마이크로배치를 파이프라인 방식으로 처리하는 분산 학습 기법이다. GPU의 대기 시간을 최소화하면서 초대규모 모델의 효율적인 병렬 훈련을 실현한다.
異なるリクエストを動的にグループ化してバッチ処理し、GPU使用効率を最大化する推論最適化技術。リクエストの待ち時間を最小化しつつスループットを向上させ、推論コストを削減する。
서로 다른 요청을 동적으로 그룹화하여 배치 처리하고 GPU 사용 효율을 극대화하는 추론 최적화 기술이다. 요청 대기 시간을 최소화하면서 처리량을 향상시키고 추론 비용을 절감한다.
RAGシステムにおいて文書を適切なサイズに分割する方法論。固定長、文単位、意味単位などの分割手法があり、検索精度とコンテキスト品質に直接影響する重要な設計要素である。
RAG 시스템에서 문서를 적절한 크기로 분할하는 방법론이다. 고정 길이, 문장 단위, 의미 단위 등의 분할 기법이 있으며 검색 정확도와 컨텍스트 품질에 직접 영향을 미치는 중요한 설계 요소이다.
AIシステムの開発・運用において、公平性・透明性・説明可能性・安全性・プライバシー保護を確保し、社会的・倫理的責任を果たすための原則や実践の総称。
AI 시스템의 개발 및 운영에서 공정성·투명성·설명 가능성·안전성·개인정보 보호를 확보하고 사회적·윤리적 책임을 다하기 위한 원칙과 실천의 총칭.
AIシステムの開発・運用において法規制や業界標準、倫理ガイドラインを遵守するための体制と活動。EU AI規制法などへの適合性を確保し、組織のAI利用リスクを管理する。
AI 시스템의 개발·운용에서 법규제나 업계 표준, 윤리 가이드라인을 준수하기 위한 체제와 활동이다. EU AI 규제법 등에 대한 적합성을 확보하고 조직의 AI 이용 리스크를 관리한다.
LLMの推論時にKey-Valueペアをキャッシュし再計算を回避することで応答速度を向上させる技術。ページドアテンションやマルチクエリアテンションなどの手法が代表的である。
LLM 추론 시 Key-Value 쌍을 캐시하여 재계산을 회피함으로써 응답 속도를 향상시키는 기술. 페이지드 어텐션이나 멀티쿼리 어텐션 등의 기법이 대표적이다.
機械学習モデルを用いて、通常パターンから逸脱したデータや挙動をリアルタイムで自動検出するAI技術。不正検知や障害予兆監視などに活用される。
머신러닝 모델을 활용하여 정상 패턴에서 벗어난 데이터나 동작을 실시간으로 자동 감지하는 AI 기술로, 부정 탐지 및 장애 예측 모니터링 등에 활용된다.
ユーザーの入力テキストから意図を判定し、適切なアクションに振り分けるNLPタスク。チャットボットや音声アシスタントの中核機能である。
사용자 입력 텍스트에서 의도를 판정하여 적절한 액션으로 분배하는 NLP 태스크. 챗봇이나 음성 어시스턴트의 핵심 기능이다.
複数のAIエージェント・ツール・LLMを連携させて複雑なタスクを自動実行する仕組み。LangChain・LlamaIndex・AutoGenなどのフレームワークが代表例。
여러 AI 에이전트·툴·LLM을 연계하여 복잡한 태스크를 자동 실행하는 구조. LangChain·LlamaIndex·AutoGen 등의 프레임워크가 대표적인 예다.