AI IT用語 韓国語一覧
AI/데이터 IT 용어 일본어 목록
257語収録 / 257개 수록
機械学習モデルを学習環境から本番環境へ移行し、実際のサービスやAPIとして利用可能な状態にするプロセス。MLOpsの中核的な工程の一つ。
머신러닝 모델을 학습 환경에서 프로덕션 환경으로 이전하여 실제 서비스나 API로 활용 가능한 상태로 만드는 프로세스. MLOps의 핵심 공정 중 하나.
ラベルなしデータからパターンや構造を自動的に発見する機械学習手法。クラスタリングや次元削減、異常検知などに活用される。
레이블이 없는 데이터에서 패턴이나 구조를 자동으로 발견하는 머신러닝 기법. 클러스터링, 차원 축소, 이상 탐지 등에 활용된다.
AIモデルの重みやアクティベーションを低精度の数値形式(INT8など)に変換し、モデルサイズの削減と推論速度の向上を図る最適化技術。
AI 모델의 가중치와 활성화 값을 낮은 정밀도의 수치 형식(INT8 등)으로 변환하여 모델 크기를 줄이고 추론 속도를 향상시키는 최적화 기술.
クラウドではなくデバイス側(エッジ)でAI推論処理を行う技術。低遅延・オフライン動作・プライバシー保護の観点から組み込み機器やIoTデバイスへの適用が進んでいる。
클라우드가 아닌 디바이스 측(엣지)에서 AI 추론 처리를 수행하는 기술. 저지연·오프라인 동작·프라이버시 보호 측면에서 임베디드 기기나 IoT 디바이스에 대한 적용이 확산되고 있다.
深層学習。ニューラルネットワークを用いた学習手法。
심층 학습. 신경망을 이용한 학습 기법.
データの収集・活用・共有における倫理的配慮を指す概念。プライバシー保護・公平性・透明性・説明責任などの原則に基づき、AIや分析システムの設計・運用で重視される。
데이터의 수집·활용·공유에서의 윤리적 고려를 의미하는 개념. 프라이버시 보호·공정성·투명성·책임성 등의 원칙에 기반해 AI 및 분석 시스템 설계·운용에서 중시된다.
OpenAIが開発したTransformerベースの言語モデル構造。デコーダーのみを使用した自己回帰型生成モデルで、大規模テキストの事前学習により高精度な文章生成を実現する。
OpenAI가 개발한 Transformer 기반의 언어 모델 구조. 디코더만을 사용한 자기회귀형 생성 모델로, 대규모 텍스트 사전 학습을 통해 높은 정확도의 문장 생성을 실현한다.
キーワードの一致ではなく、文章の意味や文脈を理解して検索結果を返す技術。ベクトル埋め込みやNLPを活用し、より精度の高い検索体験を実現する。
키워드 일치가 아닌 문장의 의미와 문맥을 이해하여 검색 결과를 반환하는 기술. 벡터 임베딩과 NLP를 활용하여 더 높은 정확도의 검색 경험을 실현한다.
エンティティ間の関係性をグラフ構造で表現・管理するデータ基盤の構築手法。RAGやナレッジベースと組み合わせてAI精度向上に活用される。
엔티티 간의 관계를 그래프 구조로 표현·관리하는 데이터 기반 구축 기법. RAG나 지식 베이스와 결합하여 AI 정확도 향상에 활용된다.
Meta社が開発したオープンソースの大規模言語モデル(LLM)。比較的少ないパラメータ数で高い性能を発揮し、商用・研究目的での利用が可能なことで広く普及している。
Meta가 개발한 오픈소스 대규모 언어 모델(LLM). 비교적 적은 파라미터 수로 높은 성능을 발휘하며, 상업적·연구 목적으로 활용 가능해 널리 보급되어 있다.
入力データの中で重要な部分に重みを付けて注目する仕組み。TransformerやBERTなどの大規模言語モデルの基盤技術であり、自然言語処理や画像認識で広く活用される。
입력 데이터에서 중요한 부분에 가중치를 부여하여 집중하는 메커니즘. Transformer나 BERT 등 대규모 언어 모델의 기반 기술로, 자연어 처리 및 이미지 인식 분야에서 널리 활용된다.
画像認識・解析を行うクラウドAPIの総称。Google Cloud Vision APIなどが代表例で、物体検出・OCR・顔認識・ラベル検出などの機能をREST API経由で利用できる。
이미지 인식 및 분석을 수행하는 클라우드 API의 총칭. Google Cloud Vision API 등이 대표적이며, 객체 감지·OCR·얼굴 인식·레이블 감지 등의 기능을 REST API를 통해 활용할 수 있다.
強化学習においてエージェントの行動を評価するための報酬関数を設計・学習するプロセス。RLHFなどでAIの出力品質を人間の好みに合わせるために活用される。
강화학습에서 에이전트의 행동을 평가하기 위한 보상 함수를 설계·학습하는 프로세스. RLHF 등에서 AI 출력 품질을 인간의 선호에 맞추기 위해 활용된다.
FP16とFP32を組み合わせてモデルを学習する手法。メモリ使用量を削減しつつ、精度を保ったまま学習速度を向上させるためにGPU環境でよく使われる。
FP16과 FP32를 혼합하여 모델을 학습하는 기법. 메모리 사용량을 줄이면서 정확도를 유지한 채 학습 속도를 향상시키기 위해 GPU 환경에서 자주 활용된다.
画像とテキストを統合的に理解・生成できるマルチモーダルAIモデル。VLMとも呼ばれ、画像キャプション生成や視覚的質問応答(VQA)などに活用される。
이미지와 텍스트를 통합적으로 이해하고 생성할 수 있는 멀티모달 AI 모델. VLM이라고도 불리며, 이미지 캡션 생성이나 시각적 질문 응답(VQA) 등에 활용된다.
機械学習モデルが訓練データに過度に適合し、未知のデータに対して汎化性能が低下する現象。バリアンスが高くなりすぎる状態を指す。
머신러닝 모델이 학습 데이터에 과도하게 적합되어 새로운 데이터에 대한 일반화 성능이 저하되는 현상. 분산이 지나치게 높아진 상태를 의미한다.
ユーザーの行動履歴や嗜好の類似性をもとに、他ユーザーのデータを活用してレコメンドを行う手法。ECサイトや動画配信サービスの推薦エンジンで広く使われる。
사용자의 행동 이력 및 선호도 유사성을 바탕으로 다른 사용자 데이터를 활용해 추천을 제공하는 기법. 이커머스나 동영상 스트리밍 서비스의 추천 엔진에서 널리 사용된다.
大規模モデルの学習時にメモリ使用量を削減する手法。順伝播の中間活性化値を一部破棄し、逆伝播時に再計算することでGPUメモリを節約する。
대규모 모델 학습 시 메모리 사용량을 줄이는 기법. 순전파의 중간 활성화 값을 일부 버리고, 역전파 시 재계산하여 GPU 메모리를 절약한다.
人間の音声をテキストや命令に変換する技術。ASRとも呼ばれ、音声アシスタントや文字起こしツール、コールセンター自動化などに広く活用される。
사람의 음성을 텍스트나 명령으로 변환하는 기술. ASR이라고도 불리며, 음성 어시스턴트, 자동 전사 도구, 콜센터 자동화 등에 널리 활용된다.
大規模言語モデルを効率的にファインチューニングする手法。Low-Rank Adaptationの略で、少ないパラメータ数で特定タスクへの適応が可能。計算コストを大幅に削減できる。
대규모 언어 모델을 효율적으로 파인튜닝하는 기법. Low-Rank Adaptation의 약자로, 적은 파라미터 수로 특정 태스크에 적응이 가능하며 계산 비용을 크게 절감할 수 있다.
自己注意機構(Self-Attention)を用いたニューラルネットワーク構造。GPTやBERTなど大規模言語モデルの基盤技術であり、自然言語処理の精度を飛躍的に向上させた。
자기 주의 메커니즘(Self-Attention)을 활용한 신경망 구조. GPT, BERT 등 대규모 언어 모델의 핵심 기반 기술로, 자연어 처리 정확도를 획기적으로 향상시켰다.
自然言語処理を中心に広く使われるディープラーニングアーキテクチャ。Self-Attentionメカニズムを採用し、GPTやBERTなど大規模言語モデルの基盤技術となっている。
자연어 처리를 중심으로 널리 사용되는 딥러닝 아키텍처. Self-Attention 메커니즘을 채택하여 GPT, BERT 등 대규모 언어 모델의 기반 기술로 활용된다.
少量のラベル付きデータと大量のラベルなしデータを組み合わせてモデルを訓練する機械学習手法。アノテーションコスト削減に有効。
소량의 레이블된 데이터와 대량의 레이블 없는 데이터를 결합하여 모델을 학습시키는 머신러닝 기법으로, 어노테이션 비용 절감에 효과적이다.
LLMが複雑な問題を段階的に分解して推論するプロンプト手法。Chain-of-Thought(CoT)とも呼ばれ、思考ステップを明示することで回答精度が向上する。
LLM이 복잡한 문제를 단계적으로 분해하여 추론하는 프롬프트 기법. Chain-of-Thought(CoT)라고도 하며, 사고 단계를 명시함으로써 답변 정확도가 향상된다.
LangChainが提供する、LLMアプリケーションのデバッグ、テスト、評価、監視を行うためのプラットフォーム。プロンプトチェーンの実行過程を可視化する。
LangChain이 제공하는 LLM 애플리케이션 디버깅, 테스트, 평가, 모니터링 플랫폼. 프롬프트 체인의 실행 과정을 시각화한다.
AIモデルの重みや演算を低精度(INT8など)に変換し、推論速度の向上とメモリ使用量の削減を図る最適化手法。エッジデバイスへのデプロイに有効。
AI 모델의 가중치와 연산을 낮은 정밀도(INT8 등)로 변환하여 추론 속도를 높이고 메모리 사용량을 줄이는 최적화 기법. 엣지 디바이스 배포에 효과적.
AIシステムの開発・運用における倫理・法令・リスク管理の枠組み。透明性・公平性・説明責任を確保し、組織全体でAIを適切に管理するための方針や体制を指す。
AI 시스템의 개발 및 운영에 있어 윤리·법령·리스크 관리의 틀. 투명성·공정성·책임성을 확보하고, 조직 전체에서 AI를 적절히 관리하기 위한 방침과 체계를 말한다.
音声データをテキストに変換するAIモデル。WhisperやGoogle Speech-to-Textなどが代表例で、自然言語処理と組み合わせて音声アシスタントや文字起こしシステムに活用される。
음성 데이터를 텍스트로 변환하는 AI 모델. Whisper나 Google Speech-to-Text 등이 대표적인 예로, 자연어 처리와 결합하여 음성 어시스턴트나 자막 생성 시스템에 활용된다.
本番環境にデプロイしたMLモデルの予測精度・データドリフト・レイテンシなどを継続的に監視し、モデルの劣化や異常を早期に検知するプロセス。
프로덕션 환경에 배포된 ML 모델의 예측 정확도·데이터 드리프트·레이턴시 등을 지속적으로 모니터링하여 모델 성능 저하나 이상을 조기에 감지하는 프로세스.
LLMが外部APIや関数を自律的に呼び出す仕組み。Function Callingとも呼ばれ、AIエージェントが検索・計算・DB参照などを実行できるようにする。
LLM이 외부 API나 함수를 자율적으로 호출하는 방식. Function Calling이라고도 하며, AI 에이전트가 검색·계산·DB 조회 등을 실행할 수 있게 한다.
システムやデータの通常パターンから逸脱した異常な挙動を自動的に検出する技術。機械学習やルールベースの手法が用いられ、障害予測やセキュリティ監視に活用される。
시스템이나 데이터의 정상 패턴에서 벗어난 이상 동작을 자동으로 탐지하는 기술. 머신러닝이나 규칙 기반 방법이 사용되며, 장애 예측 및 보안 모니터링에 활용된다.
ニューラルネットワークの過学習を防ぐ正則化手法。学習時にランダムにニューロンを一定割合で無効化することで、モデルの汎化性能を向上させる技術。
신경망의 과적합을 방지하는 정규화 기법. 학습 시 무작위로 뉴런을 일정 비율로 비활성화하여 모델의 일반화 성능을 향상시키는 기술.
AIが事実と異なる情報を、あたかも正確であるかのように自信を持って生成してしまう現象。LLMの信頼性評価や本番導入時の重大なリスク要因となる。
AI가 사실과 다른 정보를 마치 정확한 것처럼 자신 있게 생성하는 현상. LLM의 신뢰성 평가 및 프로덕션 도입 시 중요한 리스크 요인이 된다.
ニューラルネットワークが入力データの重要な部分に選択的に「注意」を向ける仕組み。TransformerやBERTなど現代の大規模言語モデルの基盤技術。
신경망이 입력 데이터의 중요한 부분에 선택적으로 '주의'를 집중하는 메커니즘. Transformer나 BERT 등 현대 대규모 언어 모델의 핵심 기반 기술.
Generator(生成器)とDiscriminator(識別器)が競い合うことで高精度なデータを生成するGANの仕組み。画像生成・データ拡張などに活用される敵対的生成ネットワーク。
Generator(생성기)와 Discriminator(판별기)가 경쟁하며 고정밀 데이터를 생성하는 GAN 구조. 이미지 생성·데이터 증강 등에 활용되는 적대적 생성 신경망이다.
事前学習済みモデルを特定のタスクや業務データで追加学習させ、精度を最適化する手法。LLMや画像認識モデルのカスタマイズに広く活用される。
사전 학습된 모델을 특정 태스크나 업무 데이터로 추가 학습시켜 정확도를 최적화하는 기법. LLM 및 이미지 인식 모델 커스터마이징에 널리 활용된다.
データからパターンを学習し、予測や分類を行うAIの一分野。教師あり・なし学習、強化学習などの手法があり、現在多くのサービスに組み込まれている。
데이터에서 패턴을 학습하여 예측이나 분류를 수행하는 AI의 한 분야. 지도학습·비지도학습·강화학습 등의 기법이 있으며, 현재 많은 서비스에 적용되고 있다.
AIモデルの目的・性能・限界・倫理的考慮事項などを文書化した仕様書。モデルの透明性確保と責任あるAI開発を推進するために用いられる。
AI 모델의 목적·성능·한계·윤리적 고려사항 등을 문서화한 명세서. 모델의 투명성 확보와 책임 있는 AI 개발을 촉진하기 위해 활용된다.
複数の決定木をアンサンブル学習で組み合わせた機械学習アルゴリズム。過学習に強く、分類・回帰タスクで高い汎化性能を発揮する手法。
여러 개의 결정 트리를 앙상블 학습으로 결합한 머신러닝 알고리즘. 과적합에 강하고 분류·회귀 태스크에서 높은 일반화 성능을 발휘하는 기법.
機械学習モデルの構築・選択・ハイパーパラメータチューニングを自動化する技術。専門知識がなくても高精度なモデルを効率的に作成できる。
머신러닝 모델의 구축·선택·하이퍼파라미터 튜닝을 자동화하는 기술. 전문 지식 없이도 높은 정확도의 모델을 효율적으로 작성할 수 있다.
事前学習済みモデルに追加する軽量な変換層。LoRAなどの手法でベースモデルを固定したまま少量のパラメータを学習し、特定タスクへの適応を効率的に行う。
사전 학습된 모델에 추가하는 경량 변환 레이어. LoRA 등의 기법으로 베이스 모델을 고정한 채 소수의 파라미터만 학습하여 특정 태스크에 효율적으로 적응시킨다.
LLMや自然言語処理モデルを使い、長文テキストから要点を抽出・圧縮して短い要約文を自動生成する技術。抽出型と生成型の2種類がある。
LLM이나 자연어 처리 모델을 활용하여 긴 텍스트에서 핵심 내용을 추출·압축해 짧은 요약문을 자동 생성하는 기술로, 추출형과 생성형 두 가지 방식이 있다.
機械学習モデルの学習履歴・パラメータ・評価指標をバージョン単位で記録・管理する手法。MLflowやDVCなどのツールを用いて再現性と追跡性を確保する。
머신러닝 모델의 학습 이력·파라미터·평가 지표를 버전 단위로 기록·관리하는 방법론. MLflow나 DVC 같은 도구를 활용해 재현성과 추적성을 확보한다.
ニューラルネットワークの各層において、ミニバッチ単位で入力を正規化する手法。学習の安定化・高速化に効果的で、過学習の抑制にも役立つ。
신경망의 각 레이어에서 미니배치 단위로 입력을 정규화하는 기법. 학습 안정화 및 고속화에 효과적이며, 과적합 억제에도 도움이 된다.
LLMが一度に処理できるトークン数(文脈長)が非常に長いこと。最新モデルでは100万トークン超を扱えるものもあり、長文書類や長い会話履歴の処理に活用される。
LLM이 한 번에 처리할 수 있는 토큰 수(문맥 길이)가 매우 긴 것을 의미한다. 최신 모델 중에는 100만 토큰 이상을 처리할 수 있는 것도 있으며, 긴 문서나 긴 대화 이력 처리에 활용된다.
機械翻訳や文章生成モデルの品質を評価する指標。参照文との単語のn-gram一致率をもとにスコア(0〜1)を算出し、翻訳精度の自動評価に広く使われる。
기계 번역 및 문장 생성 모델의 품질을 평가하는 지표. 참조 문장과의 n-gram 일치율을 기반으로 점수(0~1)를 산출하며, 번역 정확도 자동 평가에 널리 사용된다.
テキスト・画像・音声・動画など複数の異なる形式のデータを組み合わせて処理・理解できるAIモデル。GPT-4VやGeminiが代表例。
텍스트, 이미지, 음성, 동영상 등 여러 형식의 데이터를 복합적으로 처리하고 이해할 수 있는 AI 모델. GPT-4V, Gemini 등이 대표적인 예시다.
テキストデータを事前定義したカテゴリに自動的に振り分けるAI技術。メール分類やサポートチケットの振り分けなど、NLPを活用した業務自動化に広く使われる。
텍스트 데이터를 사전 정의된 카테고리로 자동 분류하는 AI 기술. 이메일 분류나 지원 티켓 분류 등 NLP를 활용한 업무 자동화에 널리 활용된다.
外部知識ベースから関連情報を検索し、その情報をLLMの生成プロセスに組み込む手法。RAGと略され、モデルの知識限界やハルシネーションを補う目的で活用される。
외부 지식 베이스에서 관련 정보를 검색하여 LLM의 생성 프로세스에 결합하는 기법. RAG로 약칭되며, 모델의 지식 한계나 환각 현상을 보완하기 위해 활용된다.
AIシステムの設計・運用において、公平性・透明性・安全性・プライバシーを確保し、社会的責任を果たすための原則や実践の総称。
AI 시스템의 설계 및 운용에서 공정성·투명성·안전성·프라이버시를 확보하고 사회적 책임을 다하기 위한 원칙과 실천의 총칭.
機械学習の学習データに対してラベルやタグを付与する作業。画像・テキスト・音声などのデータに正解情報を付けてモデルの精度向上に活用される。
머신러닝 학습 데이터에 레이블이나 태그를 부여하는 작업. 이미지·텍스트·음성 등의 데이터에 정답 정보를 붙여 모델의 정확도 향상에 활용된다.
機械学習モデルの最適なネットワーク構造を自動探索する手法。NASとも呼ばれ、人手によるアーキテクチャ設計を自動化し、精度と効率を両立したモデルを発見する。
머신러닝 모델의 최적 네트워크 구조를 자동으로 탐색하는 기법. NAS라고도 하며, 수작업 아키텍처 설계를 자동화하여 정확도와 효율성을 모두 갖춘 모델을 발견한다.
強化学習における方策最適化手法の一つ。Proximal Policy Optimizationの略で、学習の安定性と効率を両立し、LLMのファインチューニング(RLHF)でも広く活用される。
강화학습에서 사용하는 정책 최적화 기법 중 하나. Proximal Policy Optimization의 약자로, 학습 안정성과 효율성을 동시에 확보하며 LLM 파인튜닝(RLHF)에서도 널리 활용된다.
大規模言語モデル(LLM)がプロンプト内の少数例示を参照して、追加学習なしに新タスクを推論・実行する能力。Few-shot学習とも密接に関連する。
대규모 언어 모델(LLM)이 프롬프트 내 소수의 예시를 참조하여 추가 학습 없이 새로운 태스크를 추론하고 수행하는 능력. Few-shot 학습과도 밀접하게 연관된다.
自律的に目標を達成するためにタスクを計画・実行するAIシステム。LLMを中核に、ツール呼び出しや外部API連携を通じて複雑な処理を自動化する。
자율적으로 목표를 달성하기 위해 작업을 계획하고 실행하는 AI 시스템. LLM을 핵심으로 툴 호출이나 외부 API 연동을 통해 복잡한 처리를 자동화한다.
Googleが開発したモバイル・組み込み向けの軽量機械学習フレームワーク。TensorFlowモデルを変換し、Android/iOSやマイコン上でオフライン推論を実行できる。
Google이 개발한 모바일 및 임베디드용 경량 머신러닝 프레임워크. TensorFlow 모델을 변환하여 Android/iOS 및 마이크로컨트롤러에서 오프라인 추론을 실행할 수 있다.
AIやスクリプトを用いてコードのコメントや仕様書、APIドキュメントなどを自動的に生成する技術。開発工数削減と品質均一化に貢献する。
AI나 스크립트를 활용해 코드 주석, 사양서, API 문서 등을 자동으로 생성하는 기술로, 개발 공수 절감과 품질 균일화에 기여한다.
AIを活用してテストコードやテストケースを自動生成する手法。LLMや機械学習モデルがコードを解析し、網羅的なユニットテストや結合テストを生成することで開発効率を向上させる。
AI를 활용하여 테스트 코드나 테스트 케이스를 자동으로 생성하는 기법. LLM이나 머신러닝 모델이 코드를 분석하여 포괄적인 단위 테스트 및 통합 테스트를 생성함으로써 개발 효율을 향상시킨다.
Direct Preference Optimization。RLHFの報酬モデルを必要とせず、人間の好みデータを直接使ってLLMをファインチューニングする手法。
Direct Preference Optimization. RLHF의 보상 모델 없이 인간의 선호 데이터를 직접 사용하여 LLM을 파인튜닝하는 기법.
人間のフィードバックを用いた強化学習(Reinforcement Learning from Human Feedback)。AIモデルの出力を人間の評価で訓練し、より安全で意図に沿った応答を実現する手法。ChatGPTなどで採用。
인간의 피드백을 활용한 강화학습(Reinforcement Learning from Human Feedback). AI 모델의 출력을 인간의 평가로 학습시켜 더 안전하고 의도에 부합하는 응답을 구현하는 기법. ChatGPT 등에 적용됨.
LLMがJSON・XMLなど特定のフォーマットに従って出力を返す機能。APIレスポンスの後処理が不要になり、アプリへの組み込みが容易になる。
LLM이 JSON·XML 등 특정 형식에 따라 출력을 반환하는 기능. API 응답의 후처리가 필요 없어져 앱 통합이 쉬워진다.
機械学習モデルの設計・開発・運用を体系的に行うエンジニアリング領域。データパイプライン構築からモデルのデプロイ・監視までを担う。
머신러닝 모델의 설계·개발·운영을 체계적으로 수행하는 엔지니어링 분야. 데이터 파이프라인 구축부터 모델 배포·모니터링까지를 담당한다.
機械学習で使用する特徴量(フィーチャー)を一元管理・共有するためのデータ基盤。学習・推論パイプライン間で特徴量の再利用性と一貫性を担保する。
머신러닝에 사용되는 피처(특징량)를 중앙에서 관리하고 공유하기 위한 데이터 인프라. 학습 및 추론 파이프라인 간 피처의 재사용성과 일관성을 보장한다.
テキストや画像などのデータを数値ベクトルに変換する手法。意味的な類似度を計算できるため、検索や推薦システム、LLMの前処理などで広く活用される。
텍스트나 이미지 등의 데이터를 수치 벡터로 변환하는 기법. 의미적 유사도를 계산할 수 있어 검색, 추천 시스템, LLM 전처리 등에 널리 활용된다.
AIシステムが意図した通りに安全・確実に動作するよう設計・評価する取り組み。誤動作・悪用・予期せぬ副作用を防ぐことを目的とする。
AI 시스템이 의도한 대로 안전하고 확실하게 동작하도록 설계·평가하는 활동으로, 오작동·악용·예기치 않은 부작용 방지를 목적으로 한다.
LLMの強化学習において、報酬モデルを使わずに人間の選好データから直接モデルを最適化する手法。RLHFより計算コストが低く安定して学習できる。
LLM 강화학습에서 보상 모델 없이 인간의 선호 데이터로 직접 모델을 최적화하는 기법으로, RLHF보다 계산 비용이 낮고 안정적으로 학습할 수 있다.
テキストを意味を持つ最小単位(形態素)に分割し、品詞などの情報を付与する自然言語処理の基本技術。MeCabやSudachiなどのツールが広く使われる。
텍스트를 의미를 가진 최소 단위(형태소)로 분리하고 품사 등의 정보를 부여하는 자연어 처리의 기본 기술. MeCab, Sudachi 등의 도구가 널리 사용된다.
文書画像やPDFからテキスト・構造情報をAIで自動抽出する技術。OCRを超えた高精度な帳票解析や契約書処理に活用される。
문서 이미지나 PDF에서 텍스트 및 구조 정보를 AI로 자동 추출하는 기술. OCR을 넘어선 고정밀 양식 분석 및 계약서 처리에 활용된다.
画像や動画内の複数の物体を検出し、位置(バウンディングボックス)とクラスを同時に予測するDLモデル。YOLO、SSD、Faster R-CNNなどが代表的。
이미지나 동영상 내 여러 객체를 탐지하고, 위치(바운딩 박스)와 클래스를 동시에 예측하는 DL 모델. YOLO, SSD, Faster R-CNN 등이 대표적이다.
大規模な教師モデルの知識を小規模な生徒モデルに転移させる技術。推論速度の向上やモデルの軽量化を目的とし、エッジデバイスへの展開などに活用される。
대규모 교사 모델의 지식을 소규모 학생 모델로 전이시키는 기술. 추론 속도 향상과 모델 경량화를 목적으로 하며, 엣지 디바이스 배포 등에 활용된다.
本番環境のMLモデルに入力されるデータの統計的分布が、学習時と乖離してきた状態(データドリフト)を自動的に検出する仕組み。モデル劣化の早期発見に活用される。
프로덕션 환경의 ML 모델에 입력되는 데이터의 통계적 분포가 학습 시점과 달라진 상태(데이터 드리프트)를 자동으로 감지하는 메커니즘. 모델 성능 저하를 조기에 발견하는 데 활용된다.
外部知識ベースから関連情報を検索し、LLMの回答精度を高めるRetrieval-Augmented Generationシステムを設計・実装すること。ベクトルDBとの連携が核心。
외부 지식 베이스에서 관련 정보를 검색하여 LLM의 답변 정확도를 높이는 RAG 시스템을 설계·구현하는 것. 벡터 DB 연동이 핵심이다.
テキスト・画像・音声など複数のデータ形式を同時に処理・理解できるAIモデル。GPT-4VやGeminiなどが代表例で、より人間に近い認知処理を実現する。
텍스트, 이미지, 음성 등 여러 데이터 형식을 동시에 처리하고 이해할 수 있는 AI 모델. GPT-4V, Gemini 등이 대표적이며, 인간의 인지 처리에 더 가까운 방식을 구현한다.
プライベートなデータや外部データをLLMに接続するためのデータフレームワーク。ドキュメントの読み込み、ベクトル化、インデックス作成、クエリ実行を簡素化し、RAGアプリケーション構築を強力に支援する。
프라이빗 데이터나 외부 데이터를 LLM에 연결하기 위한 데이터 프레임워크. 문서 로딩, 벡터화, 인덱스 생성, 쿼리 실행을 간소화하여 RAG 애플리케이션 구축을 강력하게 지원한다.
AIモデルがテキストをトークン単位で逐次送信する応答方式。全文生成を待たずにリアルタイムで表示できるため、ChatGPTのような打鍵感のあるUXを実現する。
AI 모델이 텍스트를 토큰 단위로 순차적으로 전송하는 응답 방식. 전체 생성을 기다리지 않고 실시간으로 표시할 수 있어, ChatGPT와 같은 타이핑 효과의 UX를 구현한다.
大規模言語モデルの全パラメータを更新せず、少数のパラメータのみを調整してモデルを特定タスクに適応させる手法。LoRAやAdapterなどが代表例で、計算コストを大幅に削減できる。
대규모 언어 모델의 전체 파라미터를 업데이트하지 않고, 소수의 파라미터만 조정하여 모델을 특정 태스크에 적응시키는 기법. LoRA, Adapter 등이 대표적이며 계산 비용을 크게 절감할 수 있다.
入力シーケンス内の各トークンが他のすべてのトークンとの関連度を計算する機構。TransformerモデルやBERTなどの基盤技術であり、文脈を考慮した表現学習を可能にする。
입력 시퀀스 내 각 토큰이 다른 모든 토큰과의 관련도를 계산하는 메커니즘. Transformer 모델 및 BERT 등의 핵심 기술로, 문맥을 고려한 표현 학습을 가능하게 한다.
AIモデルや機械学習システムの性能を標準的なデータセットや評価指標を用いて測定・比較する手法。モデル選定や改善の指針となる。
AI 모델이나 머신러닝 시스템의 성능을 표준 데이터셋과 평가 지표를 활용해 측정·비교하는 방법론. 모델 선정 및 개선 방향의 기준이 된다.
機械学習モデルの開発・運用に必要なデータ収集・前処理・学習・評価・デプロイの一連のワークフローを自動化・管理する仕組み。再現性と効率化が目的。
머신러닝 모델의 개발 및 운영에 필요한 데이터 수집·전처리·학습·평가·배포의 일련의 워크플로를 자동화하고 관리하는 구조. 재현성과 효율화가 목적.
学習時に見たことのないクラスや概念を、追加学習なしに推論できる機械学習の手法。プロンプトエンジニアリングやLLM活用でも重要な概念。
학습 시 본 적 없는 클래스나 개념을 추가 학습 없이 추론할 수 있는 머신러닝 기법으로, 프롬프트 엔지니어링과 LLM 활용에서도 중요한 개념입니다.
データや画像・音声に含まれる不要な雑音成分を除去する処理。機械学習では前処理として精度向上に不可欠であり、オートエンコーダなどが活用される。
데이터나 이미지·음성에 포함된 불필요한 잡음 성분을 제거하는 처리. 머신러닝에서는 전처리로서 정확도 향상에 필수적이며, 오토인코더 등이 활용된다.
LLMにおける入出力テキストをトークン単位で管理・課金する仕組み。APIコスト最適化やプロンプト設計において、トークン消費量を意識した実装が重要になる。
LLM에서 입출력 텍스트를 토큰 단위로 관리하고 과금하는 체계. API 비용 최적화와 프롬프트 설계 시 토큰 소비량을 고려한 구현이 중요하다.
LLM推論の高速化技術で、小型モデルが複数トークンを先行生成し、大型モデルが並列検証することで推論速度を向上させる手法。
LLM 추론 속도를 높이는 기술로, 소형 모델이 여러 토큰을 미리 생성하고 대형 모델이 병렬로 검증함으로써 추론 속도를 향상시키는 방법이다.
AIを活用してコードの品質・バグ・セキュリティリスクを自動検出するレビュー手法。GitHub CopilotやCodeRabbitなどのツールが代表的で、PR単位での自動フィードバックが可能。
AI를 활용하여 코드의 품질·버그·보안 리스크를 자동으로 감지하는 리뷰 기법. GitHub Copilot, CodeRabbit 등의 도구가 대표적이며, PR 단위로 자동 피드백이 가능하다.
テキストの説明文を入力するだけで動画を自動生成するAI技術。Sora、RunwayなどのモデルがAPIやGUIで提供されており、映像制作の自動化に活用される。
텍스트 설명을 입력하면 동영상을 자동으로 생성하는 AI 기술. Sora, Runway 등의 모델이 API나 GUI 형태로 제공되며 영상 제작 자동화에 활용된다.
人間の評価・フィードバックを報酬信号として活用し、AIモデルを人間の意図や価値観に沿った出力へ最適化する強化学習手法。RLHFとも呼ばれ、ChatGPTなどの大規模言語モデルのファインチューニングに広く採用されている。
인간의 평가 및 피드백을 보상 신호로 활용하여 AI 모델을 인간의 의도와 가치관에 맞는 출력으로 최적화하는 강화학습 기법이다. RLHF라고도 불리며, ChatGPT 등 대규모 언어 모델의 파인튜닝에 널리 활용되고 있다.
実データの統計的特性を模倣してアルゴリズムで生成した人工データ。プライバシー保護やデータ不足の解消、機械学習モデルの学習用途に活用される。
실제 데이터의 통계적 특성을 모방하여 알고리즘으로 생성한 인공 데이터. 개인정보 보호, 데이터 부족 해소, 머신러닝 모델 학습 등의 목적으로 활용된다.
モデルがデータを逐次的にリアルタイムで学習・更新する手法。全データを一括で学習するバッチ学習と対比され、ストリーミングデータや変化する環境に適している。
모델이 데이터를 순차적으로 실시간 학습·갱신하는 기법. 전체 데이터를 일괄 학습하는 배치 학습과 대비되며, 스트리밍 데이터나 변화하는 환경에 적합하다.
学習済みAIモデルをAPIなどを通じて外部から呼び出せる状態にデプロイし、推論結果をリアルタイムまたはバッチで提供するプロセス。
학습된 AI 모델을 API 등을 통해 외부에서 호출할 수 있도록 배포하고, 추론 결과를 실시간 또는 배치로 제공하는 프로세스.
テキストを自然な音声に変換するAIモデル。TTS(Text-to-Speech)とも呼ばれ、WaveNetやTacotronなどの深層学習ベースの手法が主流。音声アシスタントや読み上げ機能に広く活用される。
텍스트를 자연스러운 음성으로 변환하는 AI 모델. TTS(Text-to-Speech)라고도 불리며, WaveNet이나 Tacotron 등 딥러닝 기반 방식이 주류. 음성 어시스턴트 및 읽기 기능에 널리 활용된다.
AIシステムの開発・運用における倫理・リスク管理・透明性確保のための組織的な方針・ルール・プロセスの枠組み。企業や政府機関が責任あるAI利活用を推進するために整備する。
AI 시스템의 개발 및 운영에 있어 윤리, 리스크 관리, 투명성 확보를 위한 조직적인 방침·규칙·프로세스의 체계. 기업이나 정부 기관이 책임 있는 AI 활용을 추진하기 위해 정비한다.
AIを活用して業務フロー全体を自動化する手法。データ収集・判断・処理・通知などの一連のタスクをAIエージェントやLLMが自律的に実行し、人的工数を削減する。
AI를 활용하여 업무 흐름 전체를 자동화하는 방법론. 데이터 수집·판단·처리·알림 등 일련의 작업을 AI 에이전트나 LLM이 자율적으로 실행하여 인적 공수를 줄인다.
大規模言語モデル(LLM)の開発・デプロイ・監視・運用を効率化するための実践手法やツール群。MLOpsをLLM特有の課題に対応させた概念。
대규모 언어 모델(LLM)의 개발·배포·모니터링·운영을 효율화하기 위한 실천 방법론 및 툴 집합. MLOps를 LLM 특유의 과제에 대응시킨 개념.
テキスト・画像などのデータを高次元のベクトル空間に変換する技術。意味的な類似度を数値で表現でき、検索や推薦システムなどに活用される。
텍스트·이미지 등의 데이터를 고차원 벡터 공간으로 변환하는 기술. 의미적 유사도를 수치로 표현할 수 있으며, 검색이나 추천 시스템 등에 활용된다.
Generative Adversarial Networkの略。生成器と識別器が互いに競合しながら学習する深層学習モデル。画像生成やデータ拡張などに広く活用される。
Generative Adversarial Network의 약자. 생성기와 판별기가 서로 경쟁하며 학습하는 딥러닝 모델로, 이미지 생성 및 데이터 증강 등에 널리 활용된다.
AIシステムが意図しない有害な動作をしないか検証するテスト手法。バイアス検出・ロバスト性評価・敵対的入力への耐性確認などを含み、本番リリース前に必須とされる。
AI 시스템이 의도치 않은 유해한 동작을 하지 않는지 검증하는 테스트 기법. 편향 탐지, 견고성 평가, 적대적 입력에 대한 내성 확인 등을 포함하며 프로덕션 배포 전 필수로 수행된다.
AIシステムが会話履歴や文脈情報を保持・管理する仕組み。LLMにおいてセッション間の記憶を維持し、より自然な継続的対話を実現するための技術。
AI 시스템이 대화 이력과 문맥 정보를 유지·관리하는 메커니즘. LLM에서 세션 간 기억을 유지하여 보다 자연스러운 지속적 대화를 실현하는 기술.
高次元データの特徴を保ちながら低次元に変換する手法。PCAやt-SNEなどが代表的で、機械学習の前処理や可視化に活用される。
고차원 데이터의 특징을 유지하면서 저차원으로 변환하는 기법. PCA, t-SNE 등이 대표적이며, 머신러닝 전처리 및 시각화에 활용된다.
あるタスクで学習済みのモデルを別のタスクに応用する機械学習手法。大量データがなくても高精度なモデルを構築でき、ファインチューニングと組み合わせて使われることが多い。
특정 태스크에서 학습된 모델을 다른 태스크에 응용하는 머신러닝 기법. 대량의 데이터 없이도 높은 정확도의 모델을 구축할 수 있으며, 파인튜닝과 함께 사용되는 경우가 많다.
少数のサンプルデータからモデルが学習・推論できる手法。GPT等のLLMではプロンプトに数例を示すことで精度向上が期待できる。
소수의 샘플 데이터로 모델이 학습 및 추론할 수 있는 기법. GPT 등의 LLM에서는 프롬프트에 몇 가지 예시를 제공함으로써 정확도 향상을 기대할 수 있다.
外部ツールやAPIを自律的に呼び出して目的を達成するAIエージェントの能力。Web検索・コード実行・DB操作などを組み合わせて複雑なタスクを処理する。
외부 툴이나 API를 자율적으로 호출하여 목적을 달성하는 AI 에이전트의 능력. 웹 검색·코드 실행·DB 조작 등을 조합하여 복잡한 작업을 처리한다.
AIモデルが入力データに対して予測・出力を生成する際に発生する計算コスト。主にLLMやAPI呼び出し時のトークン数・GPU使用量に基づいて課金される。
AI 모델이 입력 데이터에 대해 예측·출력을 생성할 때 발생하는 계산 비용. 주로 LLM이나 API 호출 시 토큰 수·GPU 사용량을 기준으로 과금된다.
AIシステムの目標・行動・価値観を人間の意図や倫理観と一致させる研究分野。AGI開発における安全性確保の観点から特に重要視されている。
AI 시스템의 목표·행동·가치관을 인간의 의도 및 윤리관과 일치시키는 연구 분야로, AGI 개발의 안전성 확보 측면에서 특히 중요하게 다뤄진다.
Parameter-Efficient Fine-Tuning。LLMの全パラメータではなく少数のパラメータのみを更新してファインチューニングする技術群。LoRAやPrefix Tuningなどが含まれる。
파라미터 효율적 파인튜닝. LLM의 전체 파라미터가 아닌 소수 파라미터만 업데이트하여 파인튜닝하는 기술군. LoRA, Prefix Tuning 등이 포함된다.
ユーザーの行動履歴や属性データをもとに、最適なコンテンツや商品を自動で提案するシステム。協調フィルタリングやコンテンツベースフィルタリングなどの手法が用いられる。
사용자의 행동 이력과 속성 데이터를 기반으로 최적의 콘텐츠나 상품을 자동으로 제안하는 시스템. 협업 필터링이나 콘텐츠 기반 필터링 등의 기법이 사용된다.
悪意あるテキストをプロンプトに埋め込み、LLMに意図しない動作をさせる攻撃手法。AIシステムのセキュリティ上の重大な脅威として注目されている。
악의적인 텍스트를 프롬프트에 삽입하여 LLM이 의도하지 않은 동작을 하도록 유도하는 공격 기법으로, AI 시스템의 중대한 보안 위협으로 주목받고 있다.
AIや統計モデルを用いた機械翻訳の翻訳品質を高める取り組み。BLEU スコアなどの評価指標を用いてモデルのチューニングやデータ拡張を行い、翻訳精度を改善するプロセス。
AI 및 통계 모델을 활용한 기계 번역의 번역 품질을 높이는 작업. BLEU 스코어 등의 평가 지표를 활용해 모델 튜닝 및 데이터 증강을 수행하여 번역 정확도를 개선하는 프로세스.
AIが自然言語の指示を受けてコードを生成・実行し、結果を返す機能。ChatGPTのCode Interpreterが代表例で、データ分析や可視化をその場で実行できる。
AI가 자연어 지시를 받아 코드를 생성·실행하고 결과를 반환하는 기능. ChatGPT의 Code Interpreter가 대표적이며, 데이터 분석 및 시각화를 즉석에서 실행할 수 있다.
機械学習モデルのバージョン、メタデータ、学習時のパラメータなどを一元管理するシステム。MLOpsにおいてモデルのライフサイクル管理の中核を担う。
머신러닝 모델의 버전, 메타데이터, 학습 시 파라미터 등을 중앙에서 관리하는 시스템. MLOps에서 모델의 수명 주기 관리의 핵심을 담당한다.
テキストをトークン単位に分割するトークナイザーの設計。語彙サイズ・分割粒度・特殊トークンの定義など、NLPモデルの性能に直結する重要な設計工程。
텍스트를 토큰 단위로 분할하는 토크나이저 설계. 어휘 크기·분할 단위·특수 토큰 정의 등 NLP 모델 성능에 직결되는 중요한 설계 과정이다.
AIモデルの性能を定量的に測定するための指標。精度・再現率・F1スコア・AUCなどがあり、タスクに応じて適切な指標を選択することが重要。
AI 모델의 성능을 정량적으로 측정하기 위한 지표. 정확도·재현율·F1 스코어·AUC 등이 있으며, 태스크에 따라 적절한 지표를 선택하는 것이 중요하다.
Googleが開発した双方向Transformerベースの事前学習言語モデル。文脈を双方向に理解するため、文章分類・固有表現抽出・QAなど多様なNLPタスクで高精度を発揮する。
Google이 개발한 양방향 Transformer 기반 사전 학습 언어 모델. 문맥을 양방향으로 이해하여 문장 분류·개체명 인식·QA 등 다양한 NLP 태스크에서 높은 정확도를 발휘한다.
Transformerモデルにおいて、トークンの順序情報を埋め込むための手法。RNNと異なり並列処理するTransformerは位置情報を持たないため、sincos関数などで位置を数値表現として付加する。
Transformer 모델에서 토큰의 순서 정보를 임베딩하기 위한 기법. RNN과 달리 병렬 처리하는 Transformer는 위치 정보가 없어 sin/cos 함수 등으로 위치를 수치 표현으로 부가한다.
複数のGPUを搭載したサーバーをネットワークで連結し、大規模な並列計算を行うシステム。深層学習の分散トレーニングやLLM学習基盤として広く活用される。
여러 GPU를 탑재한 서버를 네트워크로 연결하여 대규모 병렬 계산을 수행하는 시스템. 딥러닝 분산 학습이나 LLM 학습 인프라로 널리 활용된다.
LLMを活用したアプリケーション構築フレームワーク。チェーン・エージェント・メモリ・ツール連携などのコンポーネントを提供し、RAGやチャットボット開発を効率化する。
LLM을 활용한 애플리케이션 구축 프레임워크. 체인·에이전트·메모리·툴 연계 등의 컴포넌트를 제공하며, RAG 및 챗봇 개발을 효율화한다.
LLMが外部ツールやAPIを呼び出して情報取得や処理を行う機能。検索・計算・コード実行など、モデル単体では対応困難なタスクを補完する。
LLM이 외부 툴이나 API를 호출하여 정보 조회나 처리를 수행하는 기능. 검색, 계산, 코드 실행 등 모델 단독으로 처리하기 어려운 작업을 보완한다.
機械学習モデルの精度向上のため、生データから有用な特徴量を選択・変換・生成するプロセス。モデルの性能を左右する重要な前処理工程。
머신러닝 모델의 정확도 향상을 위해 원시 데이터에서 유용한 피처를 선택·변환·생성하는 프로세스. 모델 성능을 좌우하는 중요한 전처리 단계.
音声データから「誰が話しているか」を特定する技術。Speaker Identificationとも呼ばれ、声紋の特徴量を学習モデルで照合し、登録済み話者を識別する。
음성 데이터에서 '누가 말하고 있는지'를 특정하는 기술. Speaker Identification이라고도 하며, 성문 특징량을 학습 모델로 대조해 등록된 화자를 식별한다.
機械学習やディープラーニングを用いて、画像内の物体・人物・テキストなどをコンピュータが自動で識別・分類する技術。CNNが広く利用される。
머신러닝이나 딥러닝을 활용해 이미지 내의 사물·인물·텍스트 등을 컴퓨터가 자동으로 식별·분류하는 기술로, CNN이 널리 사용된다.
コンテキストウィンドウとも呼ばれる。LLMが一度の入出力(プロンプト+回答)で処理・記憶できる最大トークン数のこと。これを超えると古い情報から忘れられてしまう。
컨텍스트 윈도우라고도 불린다. LLM이 한 번의 입출력(프롬프트+답변)에서 처리하고 기억할 수 있는 최대 토큰 수. 이를 초과하면 오래된 정보부터 잊어버리게 된다.
AIモデルや学習データに含まれる不公平な偏りを検出するプロセス。性別・人種・年齢などの属性に対する差別的な予測傾向を特定し、モデルの公平性を担保するために実施する。
AI 모델이나 학습 데이터에 포함된 불공정한 편향을 탐지하는 프로세스. 성별·인종·나이 등의 속성에 대한 차별적인 예측 경향을 식별하고, 모델의 공정성을 확보하기 위해 수행한다.
LLMが一度に処理できるトークン数の上限。入力プロンプトと出力を合わせた範囲で、サイズが大きいほど長い会話履歴や文書を扱える。
LLM이 한 번에 처리할 수 있는 토큰 수의 상한선. 입력 프롬프트와 출력을 합산한 범위로, 크기가 클수록 긴 대화 이력이나 문서를 처리할 수 있다.
単語・文章・画像などのデータを、AIが処理しやすい多次元の数値ベクトルに変換する技術。意味的に似ているデータほど、ベクトル空間上で近い位置に配置される。
단어·문장·이미지 등의 데이터를 AI가 처리하기 쉬운 다차원 수치 벡터로 변환하는 기술. 의미적으로 비슷한 데이터일수록 벡터 공간상에서 가까운 위치에 배치된다.
RAG(Retrieval-Augmented Generation)システムの評価フレームワーク。忠実性・回答関連性・コンテキスト適合性などの指標でRAGパイプラインの品質を自動評価する。
RAG 시스템 평가 프레임워크. 충실성·답변 관련성·컨텍스트 적합성 등의 지표로 RAG 파이프라인의 품질을 자동 평가한다.
テキストから人名・地名・組織名などの固有名詞を自動識別・抽出するNLP技術。NER(Named Entity Recognition)とも呼ばれ、情報抽出や文書分類に活用される。
텍스트에서 인명·지명·조직명 등의 고유명사를 자동으로 식별·추출하는 NLP 기술이다. NER(Named Entity Recognition)이라고도 불리며, 정보 추출 및 문서 분류에 활용된다.
勾配ブースティングを高速・高精度に実装したオープンソースの機械学習ライブラリ。表形式データの分類・回帰タスクで高いパフォーマンスを発揮し、Kaggleなどのコンペでも広く使われる。
경사 부스팅을 고속·고정밀로 구현한 오픈소스 머신러닝 라이브러리. 표 형식 데이터의 분류·회귀 작업에서 높은 성능을 발휘하며, Kaggle 등의 대회에서도 널리 사용된다.
学習時に見たことのないクラスをテスト時に推論する手法。ラベルなしデータや属性情報を活用し、未知カテゴリへの汎化を実現するML技術。
학습 시 본 적 없는 클래스를 테스트 시 추론하는 기법. 레이블 없는 데이터나 속성 정보를 활용해 미지의 카테고리로의 일반화를 실현하는 ML 기술.
大規模言語モデルの推論とサービングを極めて高速かつ効率的に行うためのオープンソースエンジン。PagedAttentionというメモリ管理技術により、スループットを劇的に向上させている。
대규모 언어 모델의 추론과 서빙을 극히 빠르고 효율적으로 수행하기 위한 오픈소스 엔진. PagedAttention이라는 메모리 관리 기술을 통해 처리량을 극적으로 향상시킨다.
単語の表面的な一致ではなく、文章の意味や文脈を理解して検索する技術。ベクトル埋め込みを用いて意味的な類似度を計算し、より精度の高い検索結果を返す。
단어의 표면적인 일치가 아닌 문장의 의미와 문맥을 이해하여 검색하는 기술. 벡터 임베딩을 사용해 의미적 유사도를 계산하고, 더 높은 정확도의 검색 결과를 반환한다.
潜在空間に確率分布を学習し新しいデータを生成するニューラルネットワーク。Diffusionモデルの潜在空間表現にも活用され、画像圧縮・異常検知・生成タスクに使われる。
잠재 공간에 확률 분포를 학습하여 새로운 데이터를 생성하는 신경망. Diffusion 모델의 잠재 공간 표현에도 활용되며, 이미지 압축·이상 탐지·생성 태스크에 사용된다.
ユーザーの発話や入力テキストから目的・要求を自動判別する技術。チャットボットや音声アシスタントのNLU処理で中核を担う。
사용자의 발화나 입력 텍스트에서 목적과 요구를 자동으로 판별하는 기술로, 챗봇과 음성 어시스턴트의 NLU 처리에서 핵심적인 역할을 담당한다.
多層のニューラルネットワークを用いた機械学習の一手法。画像認識・音声認識・自然言語処理など幅広いAIタスクで高い精度を発揮する。
다층 신경망을 활용한 머신러닝 기법으로, 이미지 인식·음성 인식·자연어 처리 등 다양한 AI 태스크에서 높은 정확도를 발휘한다.
AIが事実と異なる情報を自信を持って出力する現象。LLMが学習データにない内容を「でっち上げる」ことで、誤情報のリスクが生じる。
AI가 사실과 다른 정보를 자신 있게 출력하는 현상. LLM이 학습 데이터에 없는 내용을 '지어내는' 것으로, 잘못된 정보의 위험이 발생한다.
大規模言語モデルの一部パラメータのみを効率的にファインチューニングする手法の総称。LoRAやAdapterなどが含まれ、少ないリソースでモデルを特定タスクに適応させられる。
대규모 언어 모델의 일부 파라미터만 효율적으로 파인튜닝하는 기법의 총칭. LoRA, Adapter 등이 포함되며, 적은 리소스로 모델을 특정 태스크에 적응시킬 수 있다.
GoogleのチャットボットおよびNLP開発プラットフォーム。インテントやエンティティを設定し、自然言語による会話フローを構築できる。LINE・Slackなど多チャネルに対応。
Google의 챗봇 및 NLP 개발 플랫폼. 인텐트와 엔티티를 설정하여 자연어 기반 대화 흐름을 구축할 수 있으며, LINE·Slack 등 다양한 채널을 지원한다.
機械学習モデルの学習用データに対して、正解となるラベル(タグ)を付与する作業。AIの精度はラベリングの品質に大きく左右される。
머신러닝 모델의 학습용 데이터에 정답 레이블(태그)을 부여하는 작업. AI의 정확도는 레이블링의 품질에 크게 좌우된다.
大量のデータをまとめてAIモデルに入力し、一括で推論結果を得る処理方式。リアルタイム性より処理効率やコスト最適化を優先する場面で活用される。
대량의 데이터를 AI 모델에 일괄 입력하여 한꺼번에 추론 결과를 얻는 처리 방식. 실시간성보다 처리 효율과 비용 최적화를 우선하는 상황에서 활용된다.
GeneratorとDiscriminatorが競い合いながら学習するAIフレームワーク。画像生成や動画合成、データ拡張などに広く活用されるGANの基本アーキテクチャ。
생성자(Generator)와 판별자(Discriminator)가 서로 경쟁하며 학습하는 AI 프레임워크. 이미지 생성, 영상 합성, 데이터 증강 등에 널리 활용되는 GAN의 기본 아키텍처.
変分オートエンコーダー(VAE)は、入力データを潜在空間に圧縮・復元する生成モデル。画像生成や異常検知、データ拡張などに活用される深層学習アーキテクチャ。
변분 오토인코더(VAE)는 입력 데이터를 잠재 공간으로 압축하고 복원하는 생성 모델로, 이미지 생성, 이상 탐지, 데이터 증강 등에 활용되는 딥러닝 아키텍처이다.
AIモデルの出力を制御・制限するための仕組み。有害コンテンツの生成防止や、特定トピックへの回答制限など、LLMの安全な運用を担保するフィルタリング層。
AI 모델의 출력을 제어·제한하기 위한 구조. 유해 콘텐츠 생성 방지나 특정 주제에 대한 응답 제한 등, LLM의 안전한 운용을 보장하는 필터링 계층.
複数の自律的なAIエージェントが協調・分業して複雑なタスクを処理するアーキテクチャ。各エージェントが役割を持ち、相互通信しながら問題を解決する。
여러 자율적인 AI 에이전트가 협력·분업하여 복잡한 태스크를 처리하는 아키텍처. 각 에이전트가 역할을 갖고 상호 통신하며 문제를 해결한다.
AIがコードや文章の補完・提案をリアルタイムで行う支援機能。GitHub CopilotやMicrosoft 365 Copilotなど、開発・業務効率化に広く活用される。
AI가 코드나 문장의 자동완성 및 제안을 실시간으로 수행하는 보조 기능. GitHub Copilot, Microsoft 365 Copilot 등 개발 및 업무 효율화에 널리 활용된다.
インターネットを通じてリアルタイムまたは非同期でデータを学習するML手法。モデルをデプロイしながら逐次的に更新できるため、変化するデータ分布に適応しやすい。
인터넷을 통해 실시간 또는 비동기로 데이터를 학습하는 ML 기법. 모델을 배포하면서 순차적으로 업데이트할 수 있어 변화하는 데이터 분포에 적응하기 쉽다.
AIモデルの判断根拠を人間が理解できる形で説明できる技術。XAIとも呼ばれ、医療・金融など高リスク分野での信頼性確保や規制対応に不可欠。
AI 모델의 판단 근거를 인간이 이해할 수 있는 형태로 설명할 수 있는 기술. XAI라고도 불리며, 의료·금융 등 고위험 분야에서의 신뢰성 확보와 규제 대응에 필수적임.
AIシステムの脆弱性や有害な出力を意図的に引き出すため、攻撃者視点でモデルを徹底的にテストするセキュリティ評価手法。
AI 시스템의 취약점이나 유해한 출력을 의도적으로 유도하기 위해 공격자 관점에서 모델을 철저히 테스트하는 보안 평가 기법입니다.
ノイズを段階的に加えて破壊し、逆過程でノイズを除去することで画像や音声を生成する深層学習モデル。Stable DiffusionやDALL-Eなどで採用されている。
노이즈를 단계적으로 추가해 데이터를 파괴한 후, 역과정으로 노이즈를 제거하여 이미지나 음성을 생성하는 딥러닝 모델. Stable Diffusion이나 DALL-E 등에서 채택되고 있다.
LLMとのチャットにおいて、ユーザー入力の前にAIに与えるメタ指示。AIの「人格・役割(例:あなたはプロの翻訳家です)」「出力フォーマット」「禁止事項」などを定義し、会話全体の振る舞いを制御する。
LLM과의 채팅에서 사용자 입력 전에 AI에게 주는 메타 지시. AI의 '인격·역할(예: 당신은 전문 번역가입니다)', '출력 포맷', '금지 사항' 등을 정의하여 대화 전체의 행동을 제어한다.
テキストや画像などをベクトル(数値の配列)に変換し、意味的な類似度をもとに検索する技術。キーワード一致ではなく意味的近さで結果を返すため、RAGやセマンティック検索に広く活用される。
텍스트나 이미지 등을 벡터(숫자 배열)로 변환하여 의미적 유사도를 기반으로 검색하는 기술. 키워드 일치가 아닌 의미적 유사성으로 결과를 반환하므로 RAG나 시맨틱 검색에 널리 활용된다.
LLMに複雑な問題を段階的に推論させるプロンプト技術。「ステップごとに考えてください」と指示することで、回答精度を大幅に向上させる手法(CoT)。
LLM에게 복잡한 문제를 단계적으로 추론하게 하는 프롬프트 기법. '단계별로 생각해 주세요'라고 지시함으로써 답변 정확도를 크게 향상시키는 방법(CoT).
大規模データで事前学習された汎用AIモデル。GPTやBERTなどが代表例で、ファインチューニングにより様々なタスクへ転用できる基盤モデル。
대규모 데이터로 사전 학습된 범용 AI 모델. GPT, BERT 등이 대표적이며, 파인튜닝을 통해 다양한 태스크에 전용할 수 있는 기반 모델.
ラベル付きの訓練データを用いてモデルを学習させる機械学習の手法。分類や回帰問題に広く活用され、正解データをもとにモデルが予測精度を向上させる。
레이블이 있는 학습 데이터를 사용하여 모델을 훈련시키는 머신러닝 기법. 분류 및 회귀 문제에 널리 활용되며, 정답 데이터를 기반으로 모델의 예측 정확도를 향상시킨다.
テキストの説明文から画像を自動生成するAI技術。Stable DiffusionやDALL-Eなどの拡散モデルが代表例で、プロンプト次第で多様な画像を出力できる。
텍스트 설명으로부터 이미지를 자동 생성하는 AI 기술. Stable Diffusion이나 DALL-E 같은 확산 모델이 대표적이며, 프롬프트에 따라 다양한 이미지를 출력할 수 있다.
MoEと略されるAIアーキテクチャ。モデル内に複数の「専門家(Expert)」ネットワークを用意し、入力に応じて適切な少数の専門家だけを動かすことで、推論コストを抑えつつ巨大なパラメータ数を実現する手法。
MoE로 약칭되는 AI 아키텍처. 모델 내에 여러 '전문가(Expert)' 네트워크를 두고, 입력에 따라 적절한 소수의 전문가만 작동시킴으로써 추론 비용을 억제하면서 거대한 파라미터 수를 실현하는 기법.
LLMに指示を出す際、ルールを言葉で説明するだけでなく、望ましい入力と出力の「具体例(数個)」をプロンプト内に含めることで、AIの回答精度とフォーマット遵守率を飛躍的に高める手法。
LLM에 지시를 내릴 때 규칙을 말로 설명할 뿐만 아니라, 바람직한 입력과 출력의 '구체적 예시(몇 개)'를 프롬프트 내에 포함시킴으로써 AI의 답변 정확도와 포맷 준수율을 비약적으로 높이는 기법.
ユーザーの行動履歴や嗜好データを分析し、最適なコンテンツや商品を自動提案するアルゴリズム基盤のシステム。協調フィルタリングやコンテンツベースフィルタリングが代表的手法。
사용자의 행동 이력과 선호 데이터를 분석하여 최적의 콘텐츠나 상품을 자동으로 제안하는 알고리즘 기반 시스템. 협업 필터링과 콘텐츠 기반 필터링이 대표적인 기법이다.
ニューラルネットワークの重みや不要なノードを削除してモデルを軽量化・高速化する技術。推論コストの削減やエッジデバイスへのデプロイに有効。
신경망의 가중치나 불필요한 노드를 제거하여 모델을 경량화·고속화하는 기술. 추론 비용 절감과 엣지 디바이스 배포에 효과적이다.
アルゴリズムやAIシミュレーションによって人工的に生成されたデータ。本物のデータと統計的性質が似ており、プライバシー問題の回避や、機械学習の学習データ不足を補う目的で使われる。
알고리즘이나 AI 시뮬레이션을 통해 인공적으로 생성된 데이터. 실제 데이터와 통계적 성질이 비슷하며, 프라이버시 문제 회피나 머신러닝의 학습 데이터 부족을 보완할 목적으로 사용된다.
人間の指示なしに自律的に目標を設定・計画・実行できるAIシステム。複数のツールやAPIを連携して複雑なタスクを段階的に処理する次世代AIの概念。
인간의 지시 없이 자율적으로 목표를 설정하고 계획하며 실행할 수 있는 AI 시스템. 여러 도구와 API를 연계해 복잡한 작업을 단계적으로 처리하는 차세대 AI 개념.
AIモデルの重みや活性化値を低精度(INT8・INT4など)に変換し、モデルサイズ削減と推論高速化を実現する最適化手法。
AI 모델의 가중치와 활성화 값을 낮은 정밀도(INT8·INT4 등)로 변환하여 모델 크기를 줄이고 추론 속도를 높이는 최적화 기법입니다.
大量のテキストデータで学習した自然言語処理AI。LLMとも呼ばれ、GPTやGeminiなどが代表例。文章生成・要約・翻訳・コード生成など多様なタスクに対応できる。
대량의 텍스트 데이터로 학습한 자연어 처리 AI. LLM이라고도 하며, GPT와 Gemini 등이 대표적인 예시. 문장 생성·요약·번역·코드 생성 등 다양한 작업을 수행할 수 있다.
AIモデルの安全制約を意図的に回避する行為。不正なプロンプト操作によりChatGPTなどのLLMに禁止コンテンツを出力させる攻撃手法。
AI 모델의 안전 제약을 의도적으로 우회하는 행위. 부적절한 프롬프트 조작으로 ChatGPT 등 LLM이 금지 콘텐츠를 출력하도록 유도하는 공격 기법.
モデルが新しいデータを継続的に学習しながら、過去の知識を忘れずに性能を維持・向上させる機械学習の手法。破滅的忘却の防止が主要課題。
모델이 새로운 데이터를 지속적으로 학습하면서 과거 지식을 잊지 않고 성능을 유지·향상시키는 머신러닝 기법. 파국적 망각 방지가 주요 과제.
画像や動画内に存在する物体の種類と位置をバウンディングボックスで特定するAI技術。YOLO、Faster R-CNNなどのモデルが広く使われる。
이미지나 동영상 내에 존재하는 객체의 종류와 위치를 바운딩 박스로 특정하는 AI 기술. YOLO, Faster R-CNN 등의 모델이 널리 사용된다.
テキストデータを入力から出力まで一連の処理ステップで変換するNLP処理フロー。トークン化・品詞解析・感情分析などの工程を連結して自動化する仕組み。
텍스트 데이터를 입력부터 출력까지 일련의 처리 단계로 변환하는 NLP 처리 흐름. 토큰화·품사 분석·감성 분석 등의 공정을 연결하여 자동화하는 구조.
入力シーケンス内の各要素が他の全要素との関連度を計算する仕組み。TransformerモデルのコアであるSelf-Attentionとも呼ばれ、文脈理解の精度を高める。
입력 시퀀스 내 각 요소가 다른 모든 요소와의 연관도를 계산하는 구조. Transformer 모델의 핵심인 Self-Attention으로도 불리며, 문맥 이해의 정확도를 높인다.
Retrieval-Augmented Generationの略。外部知識ベースを検索してLLMの回答精度を高める技術。ハルシネーション抑制やドメイン特化QAに活用される。
Retrieval-Augmented Generation의 약자. 외부 지식 베이스를 검색하여 LLM의 응답 정확도를 높이는 기술. 환각 현상 억제 및 도메인 특화 QA에 활용된다.
クラウドに依存せずデバイス上でMLモデルを推論・学習する技術。プライバシー保護・低遅延・オフライン動作が可能で、スマートフォンやIoT機器に活用される。
클라우드에 의존하지 않고 디바이스에서 직접 ML 모델을 추론·학습하는 기술. 개인정보 보호, 저지연, 오프라인 동작이 가능하며 스마트폰이나 IoT 기기에 활용된다.
AIエージェントがタスクを達成するために「計画立案→実行→結果評価→再計画」を繰り返すループ処理。LLMベースのAIシステムで中心的な動作原理となる。
AI 에이전트가 작업을 달성하기 위해 '계획 수립→실행→결과 평가→재계획'을 반복하는 루프 처리. LLM 기반 AI 시스템의 핵심 동작 원리다.
自然言語で入力された質問に対して、AIが適切な回答を自動生成・抽出する技術。QAシステムやチャットボット、RAGなどに広く活用される。
자연어로 입력된 질문에 대해 AI가 적절한 답변을 자동 생성·추출하는 기술. QA 시스템, 챗봇, RAG 등에 널리 활용된다.
自然言語のテキストをSQLクエリに自動変換するAI技術。非エンジニアもデータ取得が可能になり、BIツールや社内データ活用の民主化に貢献する。
자연어 텍스트를 SQL 쿼리로 자동 변환하는 AI 기술. 비엔지니어도 데이터 조회가 가능해지며, BI 툴이나 사내 데이터 활용의 민주화에 기여한다.
大規模な教師モデルの知識を小型の生徒モデルに転移させる学習手法。モデルの軽量化・高速化を図りながら精度を維持できるため、エッジデバイスへのAI展開に有効。
대규모 교사 모델의 지식을 소형 학생 모델로 이전하는 학습 기법입니다. 모델 경량화 및 고속화를 유지하면서 정확도를 보존할 수 있어 엣지 디바이스 AI 배포에 효과적입니다.
LLMが「推論(Reasoning)」と「行動(Acting)」を交互に繰り返すエージェント設計パターン。ツール呼び出しと思考ステップを組み合わせ、複雑なタスクを段階的に解決する。
LLM이 '추론(Reasoning)'과 '행동(Acting)'을 번갈아 반복하는 에이전트 설계 패턴. 툴 호출과 사고 단계를 결합해 복잡한 태스크를 단계적으로 해결한다.
AIモデル(主にLLM)から意図した出力を得るために、入力テキスト(プロンプト)を設計・最適化する技術。Few-shotやChain-of-Thoughtなど様々な手法がある。
AI 모델(주로 LLM)에서 원하는 출력을 얻기 위해 입력 텍스트(프롬프트)를 설계하고 최적화하는 기술로, Few-shot이나 Chain-of-Thought 등 다양한 기법이 있다.
画像や動画から人体の関節・骨格の位置を検出し、姿勢を推定するAI技術。MediaPipeやOpenPoseなどのフレームワークが広く活用される。
이미지나 영상에서 인체의 관절 및 골격 위치를 감지하여 자세를 추정하는 AI 기술. MediaPipe나 OpenPose 같은 프레임워크가 널리 활용된다.
テキストや音声から感情(ポジティブ・ネガティブ・中立など)を自動判定する技術。NLPを活用し、カスタマーレビューやSNS投稿の分析に広く活用される。
텍스트나 음성에서 감정(긍정·부정·중립 등)을 자동으로 판별하는 기술. NLP를 활용하며, 고객 리뷰나 SNS 게시물 분석에 널리 사용된다.
学習済みAIモデルの推論処理を高速化・軽量化する技術。量子化・プルーニング・知識蒸留などの手法でレイテンシ削減とコスト最適化を実現する。
학습된 AI 모델의 추론 처리를 고속화·경량화하는 기술. 양자화·프루닝·지식 증류 등의 기법으로 레이턴시 감소와 비용 최적화를 실현한다.
AIシステムの開発・運用における倫理的原則の総称。公平性・透明性・プライバシー保護・説明責任などを含み、責任あるAI活用の指針となる。
AI 시스템 개발 및 운영에서의 윤리적 원칙 총칭. 공정성·투명성·프라이버시 보호·책임 등을 포함하며 책임 있는 AI 활용의 지침이 된다.
データの収集・変換・格納・配信のパイプラインを設計・構築・運用する技術領域。ETL処理やデータウェアハウス構築などが中心業務となる。
데이터의 수집·변환·저장·배포 파이프라인을 설계·구축·운영하는 기술 영역으로, ETL 처리 및 데이터 웨어하우스 구축 등이 핵심 업무다.
自然言語処理を活用し、ユーザーの質問や指示に自動で応答するAIシステム。ChatGPTやCopilotなどが代表例で、業務効率化に広く活用されている。
자연어 처리를 활용하여 사용자의 질문이나 지시에 자동으로 응답하는 AI 시스템. ChatGPT나 Copilot 등이 대표적인 예로, 업무 효율화에 널리 활용되고 있다.
AIシステムの出力や動作を安全・倫理的な範囲内に制限する仕組み。有害コンテンツの生成防止やバイアス抑制などに使われる制御機能の総称。
AI 시스템의 출력이나 동작을 안전하고 윤리적인 범위 내로 제한하는 구조. 유해 콘텐츠 생성 방지 및 편향 억제 등에 사용되는 제어 기능의 총칭.
画像や映像から人体の関節位置を検出し、骨格構造を推定するAI技術。スポーツ分析、リハビリ支援、AR/VRアプリなどに活用される。
이미지나 영상에서 인체의 관절 위치를 감지하고 골격 구조를 추정하는 AI 기술로, 스포츠 분석, 재활 지원, AR/VR 앱 등에 활용된다.
AIモデルの学習・推論を支える計算資源や基盤環境の総称。GPU/TPUクラスタ、分散ストレージ、MLOpsパイプラインなどを含む。
AI 모델의 학습 및 추론을 지원하는 컴퓨팅 자원과 기반 환경의 총칭. GPU/TPU 클러스터, 분산 스토리지, MLOps 파이프라인 등을 포함한다.
GitHub CopilotやCursorなどのAIツールがコード補完・生成・レビューを自動支援する機能。開発効率の向上やボイラープレート削減に活用される。
GitHub Copilot이나 Cursor 같은 AI 툴이 코드 자동완성·생성·리뷰를 지원하는 기능으로, 개발 효율 향상과 보일러플레이트 코드 감소에 활용된다.
AIや統計モデルを用いてテキストを自動翻訳する技術。DeepLやGoogle翻訳などがNMT(ニューラル機械翻訳)を採用し、精度が大幅に向上している。
AI나 통계 모델을 사용하여 텍스트를 자동 번역하는 기술. DeepL이나 Google 번역 등이 NMT(신경망 기계 번역)를 채택하여 정확도가 크게 향상되었다.
テキストから人名・地名・組織名・日付などの固有表現(エンティティ)を自動的に識別・抽出するNLP技術。情報抽出や検索精度向上に活用される。
텍스트에서 인명·지명·조직명·날짜 등의 고유 표현(개체)을 자동으로 식별하고 추출하는 NLP 기술로, 정보 추출 및 검색 정확도 향상에 활용된다.
機械学習モデルの開発・学習・デプロイ・監視を自動化・継続化するための一連のワークフロー。CI/CDの概念をML領域に適用したもの。
머신러닝 모델의 개발·학습·배포·모니터링을 자동화하고 지속화하기 위한 일련의 워크플로우. CI/CD 개념을 ML 영역에 적용한 것.
テキストをトークン(単語・文字・サブワードなど)に分割するモジュール。LLMや自然言語処理において、入力テキストをモデルが扱える数値IDに変換する前処理として不可欠。
텍스트를 토큰(단어·문자·서브워드 등)으로 분할하는 모듈. LLM 및 자연어 처리에서 입력 텍스트를 모델이 처리할 수 있는 숫자 ID로 변환하는 전처리 단계로 필수적이다.
Anthropicが策定したAIとツール・データソースを接続する標準プロトコル。LLMが外部ツールやリソースを統一されたインターフェースで利用できるようにし、エージェント開発を標準化する。
Anthropic이 책정한 AI와 툴·데이터 소스를 연결하는 표준 프로토콜. LLM이 외부 툴과 리소스를 통일된 인터페이스로 활용할 수 있게 하여 에이전트 개발을 표준화한다.
少数のサンプルデータからモデルが学習・推論するML手法。GPT等のLLMでプロンプトに少量の例示を与えることでタスクを解かせるFew-Shot Learningのこと。
소수의 샘플 데이터로 모델이 학습·추론하는 ML 기법. GPT 등 LLM의 프롬프트에 소량의 예시를 제공하여 태스크를 수행하게 하는 Few-Shot Learning을 말한다.
複数のAIエージェントやLLMの呼び出し、ツール実行などを自動的に制御・調整し、複雑なタスクを統括するワークフロー管理の仕組み。
여러 AI 에이전트나 LLM 호출, 도구 실행 등을 자동으로 제어·조정하여 복잡한 태스크를 통괄하는 워크플로 관리 체계.
AIがコードの不具合箇所を自動検出・原因分析・修正提案を行う支援機能。GitHub CopilotやCursorなどのツールが代表例で、デバッグ作業の効率を大幅に向上させる。
AI가 코드의 버그를 자동으로 감지하고 원인을 분석하여 수정 방안을 제안하는 지원 기능. GitHub Copilot이나 Cursor 등의 도구가 대표적이며, 디버깅 작업의 효율을 크게 향상시킨다.
事前学習済みモデルの知識を別タスクに転用する手法。少ないデータでも高精度なモデル構築が可能で、Fine-tuningと組み合わせて活用されることが多い。
사전 학습된 모델의 지식을 다른 태스크에 전용하는 기법. 적은 데이터로도 높은 정확도의 모델 구축이 가능하며, Fine-tuning과 함께 활용되는 경우가 많다.
機械学習モデルの開発・デプロイ・運用を効率化するための実践手法。DevOpsの概念をML領域に応用し、モデルのライフサイクル全体を自動化・標準化する。
머신러닝 모델의 개발·배포·운영을 효율화하기 위한 실천 방법론. DevOps 개념을 ML 영역에 적용하여 모델 라이프사이클 전체를 자동화·표준화한다.
OpenAIが開発した大規模言語モデル(LLM)。Generative Pre-trained Transformerの略で、テキスト生成・要約・翻訳・コード補完など多様なタスクに活用される。
OpenAI가 개발한 대규모 언어 모델(LLM). Generative Pre-trained Transformer의 약자로, 텍스트 생성·요약·번역·코드 보완 등 다양한 태스크에 활용된다.
LLMが外部ツールや関数を呼び出せる機能。AIが必要に応じてAPIや定義済み関数を実行し、リアルタイム情報取得や処理の自動化を実現する。
LLM이 외부 툴이나 함수를 호출할 수 있는 기능. AI가 필요에 따라 API나 정의된 함수를 실행하여 실시간 정보 획득 및 처리 자동화를 실현한다.
AIエージェントが自律的に判断・行動しながらタスクを連鎖的に実行するワークフロー。LLMベースのエージェントがツール呼び出しや外部API連携を通じて複雑な業務を自動化する仕組み。
AI 에이전트가 자율적으로 판단하고 행동하며 태스크를 연쇄적으로 실행하는 워크플로. LLM 기반 에이전트가 툴 호출 및 외부 API 연동을 통해 복잡한 업무를 자동화하는 구조.
画像内の各ピクセルをクラスごとに分類するコンピュータビジョン技術。物体検出より細かく、自動運転や医療画像解析などに活用されるディープラーニングの代表的なタスク。
이미지 내 각 픽셀을 클래스별로 분류하는 컴퓨터 비전 기술. 객체 감지보다 정밀하며 자율주행, 의료 이미지 분석 등에 활용되는 딥러닝의 대표적인 태스크.
AIがプログラムコードを自動的に生成する技術。GitHub CopilotやChatGPTなどのLLMを活用し、開発効率を大幅に向上させる。
AI가 프로그램 코드를 자동으로 생성하는 기술. GitHub Copilot이나 ChatGPT 등의 LLM을 활용하여 개발 효율을 크게 향상시킨다.
機械学習モデルの性能を精度・適合率・再現率・F1スコアなどの指標を用いて定量的に測定・検証するプロセス。
머신러닝 모델의 성능을 정확도, 정밀도, 재현율, F1 스코어 등의 지표를 사용해 정량적으로 측정하고 검증하는 프로세스.
Reinforcement Learning from Human Feedback。人間のフィードバックを報酬信号として使い強化学習でLLMを調整する手法。ChatGPTなどの整合性向上に使われた。
인간 피드백 기반 강화학습. 인간의 피드백을 보상 신호로 사용해 강화학습으로 LLM을 조정하는 기법. ChatGPT 등의 정렬 향상에 사용됐다.
データを中央サーバーに集めず、各デバイスやノードでローカルに学習し、モデルのパラメータのみを集約するプライバシー保護型の分散機械学習手法。
데이터를 중앙 서버에 모으지 않고 각 디바이스나 노드에서 로컬로 학습한 후, 모델 파라미터만을 집계하는 프라이버시 보호형 분산 머신러닝 기법.
ノイズを段階的に除去することで画像や音声などを生成するAIモデル。Stable DiffusionやDALL-Eなど画像生成AIの基盤技術として広く使われている。
노이즈를 단계적으로 제거하여 이미지나 음성 등을 생성하는 AI 모델. Stable Diffusion이나 DALL-E 등 이미지 생성 AI의 핵심 기반 기술로 널리 활용되고 있다.
検索やRAGシステムで一次取得した候補をより精度の高いモデルで再スコアリングし、関連性の高い順に並べ替える処理。検索精度向上に有効。
검색이나 RAG 시스템에서 1차 검색된 후보를 더 정밀한 모델로 재채점하여 관련성 높은 순서로 재정렬하는 처리. 검색 정확도 향상에 효과적.
LLMのAPIオプションで、モデルの出力を必ずJSON形式に強制する機能。OpenAIのAPIなどで利用でき、構造化データの取得やパースエラーの防止に有効。
LLM API 옵션으로, 모델의 출력을 반드시 JSON 형식으로 강제하는 기능. OpenAI API 등에서 활용 가능하며, 구조화된 데이터 취득 및 파싱 오류 방지에 효과적이다.
複数の自律的なAIエージェントが協調・競合しながら問題を解決するシステム。各エージェントが役割を分担し、複雑なタスクを並列処理できる。
여러 자율적인 AI 에이전트가 협력·경쟁하면서 문제를 해결하는 시스템. 각 에이전트가 역할을 분담하여 복잡한 작업을 병렬 처리할 수 있다.
LLMの推論時にAttention機構のKey・Valueを再計算せずキャッシュする技術。長文生成時のレイテンシ削減とGPUメモリ効率化に有効。
LLM 추론 시 Attention 메커니즘의 Key·Value를 재계산하지 않고 캐시하는 기술로, 장문 생성 시 레이턴시 감소와 GPU 메모리 효율화에 효과적입니다.
高次元データの次元削減手法。データの分散が最大となる方向(主成分)を求め、情報損失を最小化しながら特徴量を圧縮する機械学習の前処理技術。
고차원 데이터의 차원 축소 기법. 데이터의 분산이 최대가 되는 방향(주성분)을 구하여 정보 손실을 최소화하면서 특징을 압축하는 머신러닝 전처리 기술.
AIチャットボットなどに対し、システムに設定された制限や指示を無視させ、悪意のある動作を強制するような特殊な入力(プロンプト)を与えるサイバー攻撃の手法。
AI 챗봇 등에 시스템에 설정된 제한이나 지시를 무시하게 하고 악의적인 동작을 강제하는 특수한 입력(프롬프트)을 주는 사이버 공격 기법.
機械学習モデルの過学習を防ぐための手法。L1正則化(Lasso)やL2正則化(Ridge)などがあり、損失関数にペナルティ項を加えてモデルの複雑さを抑制する。
머신러닝 모델의 과적합을 방지하기 위한 기법. L1 정규화(Lasso)와 L2 정규화(Ridge) 등이 있으며, 손실 함수에 패널티 항을 추가하여 모델의 복잡도를 억제한다.
機械学習において、既存のデータに回転・反転・ノイズ追加などの変換を加えて訓練データを人工的に増やす手法。過学習の防止やモデルの汎化性能向上に有効。
머신러닝에서 기존 데이터에 회전, 반전, 노이즈 추가 등의 변환을 적용해 학습 데이터를 인위적으로 늘리는 기법. 과적합 방지 및 모델의 일반화 성능 향상에 효과적이다.
自然言語処理モデルの性能評価指標の一つ。モデルがテキストをどれだけ予測できるかを示す値で、値が低いほど精度が高いことを意味する。また同名のAI検索エンジンサービスも存在する。
자연어 처리 모델의 성능 평가 지표 중 하나. 모델이 텍스트를 얼마나 잘 예측하는지를 나타내며, 값이 낮을수록 정확도가 높다는 것을 의미한다. 동명의 AI 검색 엔진 서비스도 존재한다.
機械学習モデル、データセット、AIアプリケーションを共有・公開するための世界最大のオープンソースプラットフォーム。「AI界のGitHub」とも呼ばれる。
머신러닝 모델, 데이터셋, AI 애플리케이션을 공유·공개하기 위한 세계 최대의 오픈소스 플랫폼. 'AI계의 GitHub'라고도 불린다.
AIエージェントが計画・ツール呼び出し・自己修正を繰り返しながら複雑なタスクを自律的に完遂するワークフローパターン。ReActやPlan-and-Executeなどが代表的。
AI 에이전트가 계획·툴 호출·자기 수정을 반복하며 복잡한 작업을 자율적으로 완수하는 워크플로 패턴. ReAct, Plan-and-Execute 등이 대표적.
AIが長文テキストから重要な情報を抽出し、簡潔な要約を自動生成する技術。LLMを活用したRAGや文書処理パイプラインで広く活用される。
AI가 긴 텍스트에서 중요한 정보를 추출하여 간결한 요약을 자동 생성하는 기술. LLM을 활용한 RAG 및 문서 처리 파이프라인에서 널리 활용된다.
画像や音声、テキストなどのデータを意味のある領域や単位に分割する技術。画像セグメンテーションではピクセル単位で物体を識別し、自動運転や医療画像解析などに活用される。
이미지, 음성, 텍스트 등의 데이터를 의미 있는 영역이나 단위로 분할하는 기술. 이미지 세그멘테이션에서는 픽셀 단위로 객체를 식별하며, 자율주행이나 의료 영상 분석 등에 활용된다.
数値やログなどのデータをグラフ・チャート・ダッシュボードで視覚的に表現する手法。意思決定の迅速化やデータの傾向把握に活用される。
수치나 로그 등의 데이터를 그래프·차트·대시보드로 시각적으로 표현하는 기법. 의사결정 가속화 및 데이터 경향 파악에 활용된다.
複数の自律的なAIエージェントが協調・通信しながら問題を解決するシステム。各エージェントが役割を分担し、単一モデルでは困難なタスクを効率的に処理できる。
여러 자율 AI 에이전트가 협력하고 통신하며 문제를 해결하는 시스템. 각 에이전트가 역할을 분담하여 단일 모델로는 어려운 태스크를 효율적으로 처리할 수 있다.
LLMへのリクエスト時に、同一プロンプトの前半部分をキャッシュして再利用する技術。APIコストの削減とレスポンス速度の向上が主な目的。
LLM에 요청 시 동일한 프롬프트의 앞부분을 캐시하여 재사용하는 기술. API 비용 절감과 응답 속도 향상이 주요 목적이다.
自動文章要約や機械翻訳の品質評価指標。生成テキストと参照テキストのn-gramや最長共通部分列の一致率を計算し、精度を定量化する。
자동 문장 요약 및 기계 번역의 품질 평가 지표. 생성된 텍스트와 참조 텍스트의 n-gram 및 최장 공통 부분 수열 일치율을 계산하여 정확도를 정량화한다.
テキストの感情分析・エンティティ抽出・構文解析などを行うAI系APIの総称。GoogleのCloud Natural Language APIが代表的で、NLPタスクを簡単に実装できる。
텍스트의 감정 분석, 엔티티 추출, 구문 분석 등을 수행하는 AI 계열 API의 총칭. Google의 Cloud Natural Language API가 대표적이며, NLP 작업을 손쉽게 구현할 수 있다.
LLMに対して指示文と応答のペアデータを用いてファインチューニングを行う手法。モデルが自然言語の指示に従って適切に応答できるよう訓練する。
LLM에 지시문과 응답 쌍 데이터를 활용해 파인튜닝을 수행하는 기법. 모델이 자연어 지시에 따라 적절히 응답할 수 있도록 훈련한다.
エージェントが環境と試行錯誤しながら報酬を最大化する方策を学習するML手法。ゲームAIや自律制御など複雑な意思決定タスクに活用される。
에이전트가 환경과 시행착오를 반복하며 보상을 최대화하는 정책을 학습하는 ML 기법. 게임 AI나 자율 제어 등 복잡한 의사결정 태스크에 활용된다.
事前学習済みモデルを特定タスク向けに追加学習させる手法。転移学習の一種で、少量データでも高精度なモデルを構築できる。LLMやCNNで広く活用される。
사전 학습된 모델을 특정 태스크에 맞게 추가 학습시키는 기법. 전이 학습의 일종으로, 소량의 데이터로도 높은 정확도의 모델을 구축할 수 있으며 LLM과 CNN에서 널리 활용된다.
Googleが開発したTransformerベースの自然言語処理モデル。双方向のコンテキスト学習により、文章の意味理解・質問応答・感情分析など幅広いNLPタスクに活用される。
Google이 개발한 Transformer 기반 자연어 처리 모델. 양방향 컨텍스트 학습을 통해 문장 의미 이해, 질문 응답, 감성 분석 등 다양한 NLP 태스크에 활용된다.
Anthropicが提唱したAI安全性手法。AIが守るべき原則(憲法)を定義し、自己評価・改善を通じて有害な出力を抑制するアライメント技術。
Anthropic이 제안한 AI 안전성 기법으로, AI가 따라야 할 원칙(헌법)을 정의하고 자기 평가 및 개선을 통해 유해한 출력을 억제하는 얼라인먼트 기술입니다.
ユーザーが過去に閲覧・評価したアイテムの特徴を分析し、類似コンテンツを推薦するレコメンデーション手法。アイテムのメタデータやテキスト情報を活用する。
사용자가 과거에 열람하거나 평가한 아이템의 특성을 분석하여 유사한 콘텐츠를 추천하는 추천 시스템 기법. 아이템의 메타데이터나 텍스트 정보를 활용한다.
モデルの学習を全データをまとめて一括処理する手法。オンライン学習と対比され、データが静的な場合や定期的な再学習に適している。
모델 학습을 전체 데이터를 한꺼번에 일괄 처리하는 방법. 온라인 학습과 대비되며, 데이터가 정적인 경우나 주기적인 재학습에 적합하다.
LLMが一度に処理できるトークン数の上限。入力と出力を合わせた範囲で、ウィンドウサイズが大きいほど長い文脈を保持できる。
LLM이 한 번에 처리할 수 있는 토큰 수의 상한선. 입력과 출력을 합친 범위로, 윈도우 크기가 클수록 더 긴 문맥을 유지할 수 있다.
機械学習モデルの学習前に設定するパラメータ(学習率・バッチサイズ・層数など)を最適化するプロセス。モデルの精度向上に直結する重要な工程。
머신러닝 모델 학습 전에 설정하는 파라미터(학습률·배치 크기·레이어 수 등)를 최적화하는 프로세스로, 모델 정확도 향상에 직결되는 중요한 작업이다.
人間の脳の神経回路を模倣した機械学習モデル。複数の層を持つノード(ニューロン)が相互に接続され、データのパターン認識や予測を行う。深層学習の基盤技術。
인간 뇌의 신경 회로를 모방한 머신러닝 모델. 여러 계층의 노드(뉴런)가 상호 연결되어 데이터의 패턴 인식 및 예측을 수행하며, 딥러닝의 기반 기술이다.
AIモデルがどのように予測・判断を行ったかを人間が理解できる形で説明できる性質。モデルの透明性や信頼性確保のために重要な概念。
AI 모델이 어떻게 예측·판단을 수행했는지 인간이 이해할 수 있는 형태로 설명할 수 있는 성질. 모델의 투명성과 신뢰성 확보를 위해 중요한 개념.
ナレッジグラフ(知識のネットワーク構造)とRAG(検索拡張生成)を組み合わせた手法。単なる文書の類似度検索だけでなく、エンティティ間の関係性を辿ることでより複雑な質問に正確に答えられる。
지식 그래프(지식의 네트워크 구조)와 RAG(검색 증강 생성)를 결합한 기법. 단순한 문서 유사도 검색뿐만 아니라, 엔티티 간의 관계성을 추적하여 더 복잡한 질문에 정확하게 답할 수 있다.
Microsoftがオープンソースで提供する、LLMと従来のプログラミング言語(C#, Python, Java)を統合してCopilot的なAIエージェントを構築するためのSDK。
Microsoft가 오픈소스로 제공하는 SDK로, LLM과 기존 프로그래밍 언어(C#, Python, Java)를 통합하여 Copilot 같은 AI 에이전트를 구축할 수 있게 해준다.
機械学習モデルの学習や推論に使う特徴量(Feature)を一元管理・共有する基盤。特徴量の再利用や、学習時と推論時のデータの一貫性を保証する。
머신러닝 모델의 학습 및 추론에 사용하는 특징(Feature)을 중앙에서 관리하고 공유하는 인프라. 특징의 재사용 및 학습/추론 시의 데이터 일관성을 보장한다.
公平性・透明性・プライバシー保護などの倫理的観点からAIを設計・運用する概念。バイアス排除や説明可能性(XAI)の確保が重要なテーマとなっている。
공정성·투명성·개인정보 보호 등 윤리적 관점에서 AI를 설계·운영하는 개념으로, 편향 제거와 설명 가능성(XAI) 확보가 핵심 과제이다.
Llama 3やMistralなどのオープンソースLLMを、Dockerのような手軽さでMac、Linux、Windowsのローカル環境にダウンロードして実行できるコマンドラインツール。
Llama 3이나 Mistral 같은 오픈소스 LLM을 Docker처럼 간편하게 Mac, Linux, Windows의 로컬 환경에 다운로드하여 실행할 수 있는 커맨드라인 툴.
実データの代わりに人工的に生成された学習用データ。プライバシー保護やデータ不足の解消に活用され、AIモデルの訓練品質向上に貢献する。
실제 데이터 대신 인공적으로 생성된 학습용 데이터. 개인정보 보호 및 데이터 부족 문제 해결에 활용되며, AI 모델의 학습 품질 향상에 기여한다.
LLMが生成する回答を、信頼性の高い外部データや事実に基づかせる手法。RAGなどを用いてハルシネーションを防ぎ、回答の正確性・信頼性を高める。
LLM이 생성하는 답변을 신뢰성 높은 외부 데이터나 사실에 기반하게 만드는 기법. RAG 등을 활용하여 환각 현상을 방지하고 답변의 정확성과 신뢰성을 높인다.
複数の機械学習モデルを組み合わせて予測精度を向上させる手法。バギング・ブースティング・スタッキングなどが代表的で、単一モデルより汎化性能が高い。
여러 머신러닝 모델을 결합하여 예측 정확도를 향상시키는 기법. 배깅·부스팅·스태킹 등이 대표적이며, 단일 모델보다 일반화 성능이 높다.
画像やスキャンされた文書から文字を自動で読み取りテキストデータに変換する技術。OCRとも呼ばれ、請求書や契約書のデジタル化に広く活用される。
이미지나 스캔된 문서에서 문자를 자동으로 읽어 텍스트 데이터로 변환하는 기술. OCR이라고도 하며, 청구서나 계약서의 디지털화에 널리 활용된다.
複数のAIエージェントが役割分担しながら連携して問題を解決する手法。LLMベースのシステムで、計画・実行・検証などを別々のエージェントが担う構成が主流。
여러 AI 에이전트가 역할을 분담하며 협력해 문제를 해결하는 기법. LLM 기반 시스템에서 계획·실행·검증 등을 개별 에이전트가 담당하는 구성이 주류.
AIモデルの出力を信頼性の高い外部データや事実情報に基づかせる手法。RAGなどを用いてハルシネーションを抑制し、回答の根拠を明確にする。
AI 모델의 출력을 신뢰성 높은 외부 데이터나 사실 정보에 기반하게 하는 기법. RAG 등을 활용해 환각을 억제하고 응답의 근거를 명확히 한다.
大規模な教師モデルの知識を小さな生徒モデルに転移させる学習手法。モデルの軽量化・推論高速化を目的とし、エッジデバイスへのAI展開に活用される。
대규모 교사 모델의 지식을 작은 학생 모델로 전이시키는 학습 기법. 모델 경량화 및 추론 속도 향상을 목적으로 하며, 엣지 디바이스에 AI를 배포할 때 활용된다.
学習などに使用するデータの集合。
학습 등에 사용하는 데이터의 집합.
低解像度の画像や動画をAI・ディープラーニングを用いて高解像度に変換する技術。SRCNNやESRGANなどのモデルが代表的で、画像補正・医療画像・映像処理に活用される。
저해상도 이미지나 영상을 AI·딥러닝을 활용해 고해상도로 변환하는 기술입니다. SRCNN, ESRGAN 등의 모델이 대표적이며, 이미지 보정·의료 영상·영상 처리에 활용됩니다.
自然言語で入力された質問に対して、AIが文書や知識ベースを検索・分析し、適切な回答を自動生成するシステム。QAシステムとも呼ばれる。
자연어로 입력된 질문에 대해 AI가 문서나 지식 베이스를 검색·분석하여 적절한 답변을 자동으로 생성하는 시스템. QA 시스템이라고도 불린다.
画像や動画をコンピュータが解析・理解する技術。物体検出、顔認識、OCRなどに応用され、AIモデルと組み合わせて活用されることが多い。
이미지와 동영상을 컴퓨터가 분석하고 이해하는 기술. 객체 감지, 얼굴 인식, OCR 등에 활용되며 AI 모델과 결합하여 사용되는 경우가 많다.
CoTと略されるプロンプト手法。「ステップバイステップで考えてください」と指示することで、LLMに途中計算や論理的推論の過程を出力させ、複雑な問題の正答率を劇的に引き上げる技術。
CoT로 약칭되는 프롬프트 기법. '단계별로 생각해 보세요'라고 지시함으로써 LLM이 중간 계산이나 논리적 추론 과정을 출력하게 하여 복잡한 문제의 정답률을 극적으로 끌어올리는 기술.
テキストや画像などのデータを高次元のベクトル空間に変換するプロセス。RAGや類似度検索、レコメンドシステム構築に不可欠な前処理ステップ。
텍스트나 이미지 등의 데이터를 고차원 벡터 공간으로 변환하는 프로세스. RAG나 유사도 검색, 추천 시스템 구축에 필수적인 전처리 단계.
自律的に目標を設定・実行し、環境からフィードバックを受けながらタスクを完遂するAIシステム。LLMをベースに外部ツールやAPIと連携して複雑な処理を自動化する。
자율적으로 목표를 설정·실행하고 환경으로부터 피드백을 받으며 태스크를 완수하는 AI 시스템. LLM을 기반으로 외부 툴이나 API와 연계하여 복잡한 처리를 자동화한다.
テキストや画像などをベクトル化し、意味的な類似度をもとに検索する手法。キーワード一致ではなくembeddingを活用するため、曖昧なクエリにも対応できる。
텍스트나 이미지 등을 벡터화하여 의미적 유사도를 기반으로 검색하는 기법. 키워드 일치가 아닌 embedding을 활용하므로 모호한 쿼리에도 대응할 수 있다.
テキスト・画像・コードなどを自動生成するAI技術。ChatGPTやGeminiなどが代表例で、業務効率化やコンテンツ生成に広く活用されている。
텍스트·이미지·코드 등을 자동으로 생성하는 AI 기술. ChatGPT나 Gemini 등이 대표적인 예이며, 업무 효율화 및 콘텐츠 생성에 널리 활용되고 있다.
ノイズから画像・音声・動画を生成する生成AIモデル。Stable Diffusion・DALL-E・Midjourneyに採用されており、高品質なコンテンツ生成の中心技術となっている。
노이즈에서 이미지·음성·동영상을 생성하는 생성 AI 모델. Stable Diffusion·DALL-E·Midjourney에 채용되어, 고품질 콘텐츠 생성의 핵심 기술이 되었다.
人間が日常的に使う言語をコンピュータで解析・生成する技術。テキスト分類、翻訳、感情分析、チャットボットなど幅広いAIアプリケーションの基盤となる。
인간이 일상적으로 사용하는 언어를 컴퓨터로 분석·생성하는 기술. 텍스트 분류, 번역, 감정 분석, 챗봇 등 다양한 AI 애플리케이션의 기반이 된다.
AIシステムの開発・運用において、公平性・透明性・説明可能性・安全性・プライバシー保護を確保し、社会的・倫理的責任を果たすための原則や実践の総称。
AI 시스템의 개발 및 운영에서 공정성·투명성·설명 가능성·안전성·개인정보 보호를 확보하고 사회적·윤리적 책임을 다하기 위한 원칙과 실천의 총칭.
機械学習モデルを用いて、通常パターンから逸脱したデータや挙動をリアルタイムで自動検出するAI技術。不正検知や障害予兆監視などに活用される。
머신러닝 모델을 활용하여 정상 패턴에서 벗어난 데이터나 동작을 실시간으로 자동 감지하는 AI 기술로, 부정 탐지 및 장애 예측 모니터링 등에 활용된다.
複数のAIエージェント・ツール・LLMを連携させて複雑なタスクを自動実行する仕組み。LangChain・LlamaIndex・AutoGenなどのフレームワークが代表例。
여러 AI 에이전트·툴·LLM을 연계하여 복잡한 태스크를 자동 실행하는 구조. LangChain·LlamaIndex·AutoGen 등의 프레임워크가 대표적인 예다.