<?xml version="1.0" encoding="utf-8"?><feed xmlns="http://www.w3.org/2005/Atom" ><generator uri="https://jekyllrb.com/" version="3.10.0">Jekyll</generator><link href="https://fdrn9999.github.io/feed.xml" rel="self" type="application/atom+xml" /><link href="https://fdrn9999.github.io/" rel="alternate" type="text/html" /><updated>2026-01-26T01:41:58+00:00</updated><id>https://fdrn9999.github.io/feed.xml</id><title type="html">Jinho’s Blog</title><subtitle>An gorgeous website.</subtitle><author><name>Jinho</name></author><entry><title type="html">8주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/eighth/" rel="alternate" type="text/html" title="8주차 강의일지" /><published>2024-11-12T00:00:00+00:00</published><updated>2024-11-12T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/eighth</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/eighth/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-logic과-production-rule의-차이">1. Logic과 Production Rule의 차이</a><br />
<a href="#2-lisp">2. LISP</a><br />
<a href="#3-단기-기억">3. 단기 기억</a><br />
<a href="#4-장기-기억">4. 장기 기억</a><br />
<a href="#5-데이터-기반-접근과-전방추론">5. 데이터 기반 접근과 전방추론</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">Production Rule</span>
</code></pre></div></div>
<h1 id="1-logic과-production-rule의-차이">1. Logic과 Production Rule의 차이</h1>
<p><strong>Logic</strong><br />
논리(logic)는 엄격한 규칙에 따라 결론을 도출하는 방식으로, 모든 전제가 완벽하게 맞아떨어져야 올바른 결론이 나옵니다. AI 시스템에서 논리는 조건이 명확하고 예외가 없을 때 효과적입니다. 예를 들어, 수학적 증명이나 컴퓨터 과학의 일부 알고리즘처럼 결과가 논리적으로 완벽해야 하는 분야에 적합합니다.</p>

<p><strong>Production Rule</strong><br />
생산 규칙(production rule)은 “만약-그러면(if-then)” 형태로 구성되며, 인간의 심리와 사고 방식을 반영한 시스템입니다. 논리 시스템이 정확한 조건을 요구하는 것과 달리, 생산 규칙은 사람의 직관과 경험적 규칙을 반영하므로 예외 상황에 대해 더 유연하게 대응할 수 있습니다. AI가 복잡한 상황에서 다양한 경우를 처리할 때 유용하며, 전문가 시스템에서 주로 사용됩니다.</p>

<h1 id="2-lisp">2. LISP</h1>
<p>LISP(List Processor)는 AI 연구에 많이 사용되는 프로그래밍 언어로, 리스트를 기본 데이터 구조로 활용합니다. 리스트는 괄호 ()로 감싸 표현되며, LISP는 이 괄호 구조를 이용해 리스트의 개수와 중첩된 구조를 파악합니다. 예를 들어, (A (B C) D)는 리스트 안에 리스트가 있는 구조로, 각 괄호 쌍이 리스트의 시작과 끝을 나타내는 역할을 합니다.</p>

<h1 id="3-단기-기억">3. 단기 기억</h1>
<p>단기 기억(Working Memory)은 AI가 현재 상황에서 필요한 정보를 잠시 저장하는 임시 저장 공간입니다. 새로운 데이터가 입력될 때마다 업데이트되며, AI가 즉각적인 결정을 내리기 위해 필요한 정보를 보관합니다. 예를 들어, AI가 게임을 할 때 현재 위치와 주변 상황을 단기 기억에 저장해 다음 행동을 결정하는 데 활용하는 식입니다.</p>

<h1 id="4-장기-기억">4. 장기 기억</h1>
<p>장기 기억(Production Memory)은 AI가 학습한 지식이나 규칙을 오랜 기간 동안 저장하는 공간입니다. 사람의 장기 기억과 비슷하게, AI가 학습을 통해 얻은 규칙들이 여기에 저장됩니다. 예를 들어, “날씨가 흐릴 때 우산을 챙기라”는 규칙을 학습했다면, 이 규칙이 장기 기억에 저장되어 이후 동일한 상황에서 다시 사용됩니다.</p>

<h1 id="5-데이터-기반-접근과-전방-추론">5. 데이터 기반 접근과 전방 추론</h1>
<p><strong>데이터 기반 접근</strong>(Data-Driven)은 현재 주어진 데이터에 맞는 규칙을 적용해 문제를 해결하는 방식입니다. AI는 생산 규칙을 이용해 현재 데이터를 바탕으로 가장 적합한 결정을 내립니다. <strong>전방 추론</strong>(Forward Chaining)은 현재 주어진 조건을 바탕으로 “앞으로” 맞는 규칙을 찾아가면서 문제를 해결하는 방식입니다. AI는 현재 상태를 시작점으로 삼아 조건을 충족하는 규칙을 연속적으로 적용하며 결론에 도달합니다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 1. Logic과 Production Rule의 차이 2. LISP 3. 단기 기억 4. 장기 기억 5. 데이터 기반 접근과 전방추론 Production Rule 1. Logic과 Production Rule의 차이 Logic 논리(logic)는 엄격한 규칙에 따라 결론을 도출하는 방식으로, 모든 전제가 완벽하게 맞아떨어져야 올바른 결론이 나옵니다. AI 시스템에서 논리는 조건이 명확하고 예외가 없을 때 효과적입니다. 예를 들어, 수학적 증명이나 컴퓨터 과학의 일부 알고리즘처럼 결과가 논리적으로 완벽해야 하는 분야에 적합합니다. Production Rule 생산 규칙(production rule)은 “만약-그러면(if-then)” 형태로 구성되며, 인간의 심리와 사고 방식을 반영한 시스템입니다. 논리 시스템이 정확한 조건을 요구하는 것과 달리, 생산 규칙은 사람의 직관과 경험적 규칙을 반영하므로 예외 상황에 대해 더 유연하게 대응할 수 있습니다. AI가 복잡한 상황에서 다양한 경우를 처리할 때 유용하며, 전문가 시스템에서 주로 사용됩니다. 2. LISP LISP(List Processor)는 AI 연구에 많이 사용되는 프로그래밍 언어로, 리스트를 기본 데이터 구조로 활용합니다. 리스트는 괄호 ()로 감싸 표현되며, LISP는 이 괄호 구조를 이용해 리스트의 개수와 중첩된 구조를 파악합니다. 예를 들어, (A (B C) D)는 리스트 안에 리스트가 있는 구조로, 각 괄호 쌍이 리스트의 시작과 끝을 나타내는 역할을 합니다. 3. 단기 기억 단기 기억(Working Memory)은 AI가 현재 상황에서 필요한 정보를 잠시 저장하는 임시 저장 공간입니다. 새로운 데이터가 입력될 때마다 업데이트되며, AI가 즉각적인 결정을 내리기 위해 필요한 정보를 보관합니다. 예를 들어, AI가 게임을 할 때 현재 위치와 주변 상황을 단기 기억에 저장해 다음 행동을 결정하는 데 활용하는 식입니다. 4. 장기 기억 장기 기억(Production Memory)은 AI가 학습한 지식이나 규칙을 오랜 기간 동안 저장하는 공간입니다. 사람의 장기 기억과 비슷하게, AI가 학습을 통해 얻은 규칙들이 여기에 저장됩니다. 예를 들어, “날씨가 흐릴 때 우산을 챙기라”는 규칙을 학습했다면, 이 규칙이 장기 기억에 저장되어 이후 동일한 상황에서 다시 사용됩니다. 5. 데이터 기반 접근과 전방 추론 데이터 기반 접근(Data-Driven)은 현재 주어진 데이터에 맞는 규칙을 적용해 문제를 해결하는 방식입니다. AI는 생산 규칙을 이용해 현재 데이터를 바탕으로 가장 적합한 결정을 내립니다. 전방 추론(Forward Chaining)은 현재 주어진 조건을 바탕으로 “앞으로” 맞는 규칙을 찾아가면서 문제를 해결하는 방식입니다. AI는 현재 상태를 시작점으로 삼아 조건을 충족하는 규칙을 연속적으로 적용하며 결론에 도달합니다.]]></summary></entry><entry><title type="html">7주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/seventh/" rel="alternate" type="text/html" title="7주차 강의일지" /><published>2024-11-05T00:00:00+00:00</published><updated>2024-11-05T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/seventh</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/seventh/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-q-learning">1. Q-Learning</a><br />
<a href="#2-귀납과-연역">2. 귀납과 연역</a><br />
<a href="#3-휴리스틱-탐색">3. 휴리스틱 탐색</a><br />
<a href="#4-인지-아키텍처">4. 인지 아키텍처</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">chatgpt-5?</span>
</code></pre></div></div>

<h1 id="1-q-learning">1. Q-Learning</h1>
<p><strong>개념</strong><br />
Q-Learning은 강화학습의 대표적인 알고리즘입니다. 여기서 ‘강화’란 보상을 최대화하려는 목표를 의미합니다. Q-Learning은 주어진 상황(상태)에서 가장 좋은 행동을 찾아내기 위해 행동-보상 관계를 학습하는 방식으로, 주어진 상황에서 최적의 결정을 내리도록 에이전트를 훈련시킵니다.</p>

<p><strong>작동 방식</strong><br />
에이전트가 환경과 상호작용하면 즉각적인 보상(결과)을 받습니다. 이 보상을 바탕으로 “이 행동이 좋은가, 나쁜가”를 점차 배워갑니다. 에이전트는 현재 상황에서 어떤 행동이 가장 좋은지 예측하면서, 여러 번의 시행착오 끝에 최적의 행동을 선택할 수 있게 됩니다. 결국, 모든 상황에 대해 가장 좋은 행동을 결정할 수 있는 ‘Q-값’을 학습하게 됩니다.</p>

<p><strong>GPT와의 차이</strong><br />
GPT 모델은 텍스트 데이터를 바탕으로 학습된 언어 모델입니다. Q-Learning처럼 강화학습을 사용하는 것은 아니지만, 때때로 강화학습의 개념이 일부 활용되기도 합니다. 예를 들어, RLHF(인간 피드백을 통한 강화학습)로 GPT의 응답 품질을 개선합니다.</p>

<p>결론적으로 Q-Learning과 GPT는 모두 어떤 기준에 따라 학습하지만, Q-Learning은 “상황-행동 관계”를, GPT는 “텍스트 생성”을 목표로 한다는 차이가 있습니다.</p>

<h1 id="2-귀납과-연역">2. 귀납과 연역</h1>
<p><strong>귀납 (Induction)</strong><br />
귀납은 개별적인 사례나 데이터를 통해 일반적인 규칙이나 패턴을 추론하는 방법입니다. 인공지능에서 귀납은 주로 기계학습에 사용됩니다. 모델이 다양한 데이터를 보고 패턴을 학습하고, 그 패턴을 바탕으로 새로운 데이터를 예측하는 방식입니다. 예를 들어, 고양이와 개의 사진을 학습시켜 그 차이점을 알게 된 AI가, 이후 처음 보는 동물 사진이 개인지 고양이인지 맞추는 것이 귀납적 추론의 예입니다. AI가 실제 환경에서 발생하는 변화를 학습하면서도 새로운 데이터를 다룰 수 있도록 유연성을 제공합니다.</p>

<p><strong>연역 (Deduction)</strong><br />
연역은 일반적인 규칙이나 원리를 이용해 특정 상황에 대한 결론을 내리는 방식입니다. AI에서는 전문 시스템이나 규칙 기반 시스템에서 연역이 사용됩니다. 예를 들어, “모든 포유류는 젖을 먹인다”라는 규칙과 “고양이는 포유류다”라는 조건이 주어졌을 때, “고양이는 젖을 먹인다”라는 결론을 내리는 것이 연역입니다. 연역적 추론은 규칙이 명확하게 정의된 경우에 효과적이지만, 다양한 변수가 있는 복잡한 상황에서는 한계가 있을 수 있습니다.</p>

<p><strong>AI와 귀납/연역의 관계</strong><br />
인공지능 시스템은 주로 귀납적 학습 방식에 의존해 데이터를 통해 패턴을 추론하고 학습합니다. 그러나 전문 시스템처럼 연역적 추론이 필요한 경우에는 명확한 규칙과 원리를 바탕으로 문제를 해결합니다. 최근의 고급 AI 시스템들은 귀납과 연역의 조합을 통해 더 효과적인 학습과 예측을 시도하며, 상황에 따라 두 가지 방식을 균형 있게 활용하고자 합니다.</p>

<h1 id="3-휴리스틱-탐색">3. 휴리스틱 탐색</h1>
<p><strong>개념</strong><br />
휴리스틱 탐색은 문제를 해결하기 위한 방법 중 하나로, 모든 가능한 경로를 일일이 계산하지 않고 ‘경험적인 규칙’이나 ‘직관’에 따라 가장 유망한 경로를 먼저 탐색하는 방식입니다. 휴리스틱 탐색은 완벽하지는 않지만, 특히 복잡하고 빠른 결정이 필요한 상황에서 효율적으로 활용됩니다. 예를 들어, AI가 미로를 풀 때 모든 길을 다 탐색하지 않고, 사람이 직관적으로 “오른쪽이 유망해 보인다”고 생각하며 길을 찾는 것처럼 특정 기준에 따라 탐색을 진행하는 방식입니다.</p>

<p><strong>AI에서의 사용</strong><br />
AI에서는 주로 <strong>A 알고리즘</strong>이나 베스트-퍼스트 탐색에서 휴리스틱을 사용합니다. 여기서 휴리스틱 함수는 각 경로의 유망성을 평가하여 최적의 길을 찾는 데 도움을 줍니다. 휴리스틱 탐색 덕분에 AI는 복잡한 문제에서도 상대적으로 빠르고 효율적인 방식으로 답을 찾을 수 있습니다.</p>

<h1 id="4-인지-아키텍처">4. 인지 아키텍처</h1>
<p><strong>개념</strong>
인지 아키텍처는 인간의 인지 과정을 모방하여 설계된 AI의 구조입니다. 목표는 인간처럼 사고하고, 학습하며, 문제를 해결할 수 있는 시스템을 만드는 것입니다. 인지 아키텍처는 메모리, 학습, 추론, 인식 등 다양한 기능을 통합하여 AI가 복합적인 인지 작업을 수행할 수 있도록 설계됩니다.</p>

<p><strong>AI에서의 사용</strong>
대표적인 인지 아키텍처로는 ACT-R(Adaptive Control of Thought-Rational)과 SOAR 등이 있습니다. 이러한 시스템은 다양한 정보를 종합적으로 처리하며, 학습과 기억을 통해 상황에 맞는 결정을 내립니다. 예를 들어, 인간처럼 과거 경험을 바탕으로 현재 상황에 맞는 판단을 하거나, 새로운 문제를 해결하기 위해 기존 지식을 결합하는 방식으로 활용됩니다.</p>

<p><strong>의의</strong>
인지 아키텍처는 단순한 패턴 인식 수준을 넘어서, 인간과 유사한 학습과 추론을 가능하게 합니다. AI가 단순히 정해진 답을 찾는 것을 넘어, 문제 해결 과정에서 스스로 적응하고 학습하는 데 큰 역할을 합니다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 1. Q-Learning 2. 귀납과 연역 3. 휴리스틱 탐색 4. 인지 아키텍처 chatgpt-5? 1. Q-Learning 개념 Q-Learning은 강화학습의 대표적인 알고리즘입니다. 여기서 ‘강화’란 보상을 최대화하려는 목표를 의미합니다. Q-Learning은 주어진 상황(상태)에서 가장 좋은 행동을 찾아내기 위해 행동-보상 관계를 학습하는 방식으로, 주어진 상황에서 최적의 결정을 내리도록 에이전트를 훈련시킵니다. 작동 방식 에이전트가 환경과 상호작용하면 즉각적인 보상(결과)을 받습니다. 이 보상을 바탕으로 “이 행동이 좋은가, 나쁜가”를 점차 배워갑니다. 에이전트는 현재 상황에서 어떤 행동이 가장 좋은지 예측하면서, 여러 번의 시행착오 끝에 최적의 행동을 선택할 수 있게 됩니다. 결국, 모든 상황에 대해 가장 좋은 행동을 결정할 수 있는 ‘Q-값’을 학습하게 됩니다. GPT와의 차이 GPT 모델은 텍스트 데이터를 바탕으로 학습된 언어 모델입니다. Q-Learning처럼 강화학습을 사용하는 것은 아니지만, 때때로 강화학습의 개념이 일부 활용되기도 합니다. 예를 들어, RLHF(인간 피드백을 통한 강화학습)로 GPT의 응답 품질을 개선합니다. 결론적으로 Q-Learning과 GPT는 모두 어떤 기준에 따라 학습하지만, Q-Learning은 “상황-행동 관계”를, GPT는 “텍스트 생성”을 목표로 한다는 차이가 있습니다. 2. 귀납과 연역 귀납 (Induction) 귀납은 개별적인 사례나 데이터를 통해 일반적인 규칙이나 패턴을 추론하는 방법입니다. 인공지능에서 귀납은 주로 기계학습에 사용됩니다. 모델이 다양한 데이터를 보고 패턴을 학습하고, 그 패턴을 바탕으로 새로운 데이터를 예측하는 방식입니다. 예를 들어, 고양이와 개의 사진을 학습시켜 그 차이점을 알게 된 AI가, 이후 처음 보는 동물 사진이 개인지 고양이인지 맞추는 것이 귀납적 추론의 예입니다. AI가 실제 환경에서 발생하는 변화를 학습하면서도 새로운 데이터를 다룰 수 있도록 유연성을 제공합니다. 연역 (Deduction) 연역은 일반적인 규칙이나 원리를 이용해 특정 상황에 대한 결론을 내리는 방식입니다. AI에서는 전문 시스템이나 규칙 기반 시스템에서 연역이 사용됩니다. 예를 들어, “모든 포유류는 젖을 먹인다”라는 규칙과 “고양이는 포유류다”라는 조건이 주어졌을 때, “고양이는 젖을 먹인다”라는 결론을 내리는 것이 연역입니다. 연역적 추론은 규칙이 명확하게 정의된 경우에 효과적이지만, 다양한 변수가 있는 복잡한 상황에서는 한계가 있을 수 있습니다. AI와 귀납/연역의 관계 인공지능 시스템은 주로 귀납적 학습 방식에 의존해 데이터를 통해 패턴을 추론하고 학습합니다. 그러나 전문 시스템처럼 연역적 추론이 필요한 경우에는 명확한 규칙과 원리를 바탕으로 문제를 해결합니다. 최근의 고급 AI 시스템들은 귀납과 연역의 조합을 통해 더 효과적인 학습과 예측을 시도하며, 상황에 따라 두 가지 방식을 균형 있게 활용하고자 합니다. 3. 휴리스틱 탐색 개념 휴리스틱 탐색은 문제를 해결하기 위한 방법 중 하나로, 모든 가능한 경로를 일일이 계산하지 않고 ‘경험적인 규칙’이나 ‘직관’에 따라 가장 유망한 경로를 먼저 탐색하는 방식입니다. 휴리스틱 탐색은 완벽하지는 않지만, 특히 복잡하고 빠른 결정이 필요한 상황에서 효율적으로 활용됩니다. 예를 들어, AI가 미로를 풀 때 모든 길을 다 탐색하지 않고, 사람이 직관적으로 “오른쪽이 유망해 보인다”고 생각하며 길을 찾는 것처럼 특정 기준에 따라 탐색을 진행하는 방식입니다. AI에서의 사용 AI에서는 주로 A 알고리즘이나 베스트-퍼스트 탐색에서 휴리스틱을 사용합니다. 여기서 휴리스틱 함수는 각 경로의 유망성을 평가하여 최적의 길을 찾는 데 도움을 줍니다. 휴리스틱 탐색 덕분에 AI는 복잡한 문제에서도 상대적으로 빠르고 효율적인 방식으로 답을 찾을 수 있습니다. 4. 인지 아키텍처 개념 인지 아키텍처는 인간의 인지 과정을 모방하여 설계된 AI의 구조입니다. 목표는 인간처럼 사고하고, 학습하며, 문제를 해결할 수 있는 시스템을 만드는 것입니다. 인지 아키텍처는 메모리, 학습, 추론, 인식 등 다양한 기능을 통합하여 AI가 복합적인 인지 작업을 수행할 수 있도록 설계됩니다. AI에서의 사용 대표적인 인지 아키텍처로는 ACT-R(Adaptive Control of Thought-Rational)과 SOAR 등이 있습니다. 이러한 시스템은 다양한 정보를 종합적으로 처리하며, 학습과 기억을 통해 상황에 맞는 결정을 내립니다. 예를 들어, 인간처럼 과거 경험을 바탕으로 현재 상황에 맞는 판단을 하거나, 새로운 문제를 해결하기 위해 기존 지식을 결합하는 방식으로 활용됩니다. 의의 인지 아키텍처는 단순한 패턴 인식 수준을 넘어서, 인간과 유사한 학습과 추론을 가능하게 합니다. AI가 단순히 정해진 답을 찾는 것을 넘어, 문제 해결 과정에서 스스로 적응하고 학습하는 데 큰 역할을 합니다.]]></summary></entry><entry><title type="html">6주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/sixth/" rel="alternate" type="text/html" title="6주차 강의일지" /><published>2024-10-29T00:00:00+00:00</published><updated>2024-10-29T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/sixth</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/sixth/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-oop">1. OOP</a><br />
<a href="#2-production-rule">2. Production Rule</a><br />
<a href="#3-conflice-set">3. Conflict Set</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">OOP</span>
</code></pre></div></div>

<h1 id="1-oop">1. OOP</h1>
<p>Symbolic AI에서 OOP(객체지향 프로그래밍)는 개념을 객체로 정의하고 이를 조작하여 AI 시스템을 설계하는 데 사용된다. 객체지향 프로그래밍의 핵심 요소인 <strong>클래스, 객체, 상속, 다형성</strong> 등을 활용해 복잡한 개념을 추상화하고 계층화된 구조로 표현할 수 있다.</p>

<p>예를 들어, <strong>클래스</strong>를 통해 추론 엔진이나 지식 베이스를 정의하고, <strong>객체</strong>로 구체적인 데이터나 규칙을 나타낼 수 있다. 상속을 사용하면 지식의 특정 구조나 규칙을 재사용할 수 있고, 다형성으로 여러 상황에서 유연하게 적용할 수 있다.</p>

<p>이 방식은 AI 시스템이 문제를 인간과 유사한 논리 구조로 다루도록 돕고, 코드의 가독성과 유지보수성을 높이는 데 기여한다.</p>

<h1 id="2-production-rule">2. Production Rule</h1>
<p><strong>Production Rule</strong>은 지식 기반 시스템에서 조건과 행동을 명시한 규칙으로, 일반적으로 “If-Then” 형식으로 작성된다. 여기서 “If” 부분은 특정 조건을, “Then” 부분은 조건이 충족되었을 때 수행할 행동을 나타낸다. 이러한 규칙은 시스템이 특정 조건에서 어떤 결정을 내려야 할지 정의해주며, 논리적 추론의 기본 단위로 사용된다.</p>

<p><strong>Knowledge-Based System</strong>(KBS)는 주어진 지식을 기반으로 문제를 해결하는 시스템으로, 이를 위해 <strong>PM</strong>(Production Memory), WM(Working Memory), IE(Inference Engine)**이 핵심 역할을 한다:</p>

<p>PM (Production Memory)
PM은 시스템이 사용하는 모든 규칙(production rule)을 저장하는 곳이다. 각 규칙은 특정 조건이 만족되었을 때 수행할 동작을 설명하며, 이 규칙들은 문제 해결을 위한 지식을 구성한다. 예를 들어, 의료 진단 시스템의 경우, “If 증상이 발열 and 기침, Then 독감 의심”과 같은 규칙이 포함될 수 있다.</p>

<p>WM (Working Memory)
WM은 <strong>사실(fact)</strong>을 저장하는 공간으로, 현재 시스템이 알고 있는 정보나 상태를 나타낸다. 시스템이 동작 중에 추가적으로 얻거나 수정하는 데이터가 WM에 저장되며, 이를 통해 IE가 규칙의 조건을 평가하게 된다. 예를 들어, 환자의 증상이나 상황 같은 정보가 WM에 저장될 수 있다.</p>

<p>IE (Inference Engine)
IE는 규칙과 사실을 조합하여 논리적으로 추론을 수행하는 엔진이다. IE는 WM의 사실과 PM의 규칙을 비교하고, 조건이 충족된 규칙을 실행한다. 실행된 규칙이 새로운 사실을 생성하면, 이를 WM에 추가하거나 업데이트하여 또 다른 규칙의 조건으로 사용할 수 있다. 이러한 과정은 <strong>추론(reasoning)</strong>을 통해 시스템이 결론이나 행동을 도출할 수 있게 한다.</p>

<p>요약하면, KBS는 PM에 저장된 규칙과 WM의 사실을 IE가 논리적으로 조합하여 문제를 해결하는 시스템이다.</p>

<h1 id="3-conflict-set">3. Conflict Set</h1>
<p><strong>Conflict Set</strong>(충돌집합)은 지식 기반 시스템에서 여러 개의 규칙이 동시에 활성화될 때 발생하는 상황을 설명하는 개념이다. 시스템의 Working Memory(WM)에서 현재 사실이 여러 규칙의 조건을 만족할 경우, 이러한 규칙들은 “conflict set”을 형성한다.</p>

<p>주요 포인트:</p>
<ol>
  <li>
    <p>동시 활성화: 특정 상황에서 여러 규칙이 동시에 조건을 충족하게 되면, 이 규칙들이 conflict set에 포함된다. 예를 들어, WM에 “증상이 발열”과 “기침”이 있다고 가정할 때, 두 개 이상의 규칙이 이 두 조건을 만족할 수 있다.</p>
  </li>
  <li>규칙의 우선순위: Conflict set에 포함된 규칙들 중 어떤 규칙을 실행할지를 결정해야 한다. 이때, 규칙의 우선순위를 정하는 방법은 여러 가지가 있다. 일반적인 방법으로는 다음과 같은 것들이 있다:
    <ul>
      <li>가장 먼저 등록된 규칙: 먼저 정의된 규칙을 우선 실행한다.</li>
      <li>우선순위 점수: 각 규칙에 점수를 매겨 높은 점수를 가진 규칙을 먼저 실행한다.</li>
      <li>가장 구체적인 규칙: 조건이 가장 구체적인 규칙을 우선 실행한다.</li>
    </ul>
  </li>
  <li>결정 프로세스: Conflict set에서 규칙을 선택하는 과정은 Conflict Resolution이라고 하며, 이 과정에서 선택된 규칙이 실행되고, WM의 상태가 업데이트된다. 이후, 새로운 사실이 WM에 추가될 수 있으며, 이로 인해 새로운 conflict set이 발생할 수 있다.</li>
</ol>

<p>결론적으로,<strong>conflict set은 여러 규칙이 동시에 활성화되는 상황에서 어떤 규칙을 선택할지를 결정하는 과정의 핵심 요소</strong>이다. 이를 통해 지식 기반 시스템이 효과적으로 추론하고 결정을 내릴 수 있도록 돕는다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 [1.]]></summary></entry><entry><title type="html">5주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/fifth/" rel="alternate" type="text/html" title="5주차 강의일지" /><published>2024-10-22T00:00:00+00:00</published><updated>2024-10-22T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/fifth</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/fifth/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-llm-활용">1. LLM 활용법</a><br />
<a href="#2-rag">2. RAG</a><br />
<a href="#3-langchain">3. LangChain</a><br />
<a href="#4-moes">4. MoEs</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">GraphDB</span>
</code></pre></div></div>

<h1 id="1-llm-활용법">1. LLM 활용법</h1>
<ul>
  <li><strong>FIne-Tuning</strong>
    <ul>
      <li>Fine-Tuning은 LLM을 특정 작업이나 주제에 맞춰 추가 훈련하여, 해당 분야에서 더 정확하고 일관된 성능을 내도록 만드는 방법이다. 이를 통해 모델이 특정 목적에 최적화된 답변을 제공할 수 있다.</li>
    </ul>
  </li>
  <li><strong>Prompting</strong>
    <ul>
      <li>Prompting은 모델을 재훈련하지 않고, 입력 프롬프트를 설계해 원하는 답변 형식이나 정보를 끌어내는 방법이다. 다양한 작업을 유연하게 수행할 수 있다는 장점이 있다.</li>
    </ul>
  </li>
</ul>

<h1 id="2-rag">2. RAG</h1>
<p><strong>RAG</strong>(Retrieval-Augmented Generation)는 <strong>LLM</strong>이 답변을 생성할 때, 외부의 검색 시스템에서 필요한 정보를 실시간으로 불러와 그 데이터를 기반으로 응답을 생성하는 방법이다. 예를 들어 최신 뉴스나 업데이트된 정보가 필요할 때, 모델이 자체 학습된 데이터만으로는 한계가 있기 때문에, RAG는 검색 시스템을 사용해 최신 정보를 모델에 제공하여 더 신뢰도 높은 답변을 생성하도록 한다. 이렇게 함으로써, 모델이 정적인 정보뿐 아니라 동적인 정보에도 접근할 수 있게 된다.</p>

<h1 id="3-langchain">3. LangChain</h1>
<p>LangChain은 LLM의 사용을 확장해 여러 작업을 체계적으로 수행할 수 있도록 도와주는 프레임워크이다. LLM을 중심으로 데이터에 접근하고, 검색하며, API나 데이터베이스와 상호작용하는 워크플로를 쉽게 구성할 수 있게 한다. LangChain은 특히 RAG와 같은 접근법을 통해 모델이 외부 데이터베이스나 검색 엔진과 연동되어 필요한 정보를 가져올 수 있도록 해 주며, LLM을 다양한 어플리케이션에서 실용적으로 사용할 수 있도록 돕는다.</p>

<h1 id="4-moes">4. MoEs</h1>
<p><strong>MoEs</strong>(Mixture of Experts)는 여러 개의 전문 모델을 결합하여 특정 작업에 최적화된 답변을 제공하는 방식이다.</p>

<p>전문 모델 구성: MoEs는 다양한 주제나 작업에 특화된 여러 하위 모델(전문가)로 구성된다. 각 전문가는 특정 분야에 대해 잘 알고 있다.</p>

<p>선택적 활성화: 입력된 요청에 따라 가장 적합한 전문가만 선택되어 활성화된다. 예를 들어, 번역 요청이 들어오면 번역 전문가만 작동하고, 다른 전문가는 비활성화된다.</p>

<p>효율성: 필요한 전문가만 활성화되므로 계산 리소스를 절약하면서도 높은 성능을 유지할 수 있다.</p>

<p>즉, MoEs는 필요할 때만 적합한 전문 모델을 사용하여 효율적이고 정확한 응답을 생성하는 방법이다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 [1.]]></summary></entry><entry><title type="html">4주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/fourth/" rel="alternate" type="text/html" title="4주차 강의일지" /><published>2024-10-15T00:00:00+00:00</published><updated>2024-10-15T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/fourth</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/fourth/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-논리-체계의-기본-개념">1. 논리 체계의 기본 개념</a><br />
<a href="#2-내부-언어">2. 내부 언어</a><br />
<a href="#3-절차적-언어">3. 절차적 언어</a><br />
<a href="#4-비절차적-언어">4. 비절차적 언어</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">loves(vincent, mia).</span>
</code></pre></div></div>

<h1 id="1-논리-체계의-기본-개념">1. 논리 체계의 기본 개념</h1>
<ul>
  <li><strong>명제 논리 (Propositional Logic)</strong>
    <ul>
      <li><strong>정의</strong>: 명제 논리는 참 또는 거짓 값을 가지는 명제들을 다루는 논리 체계이다. 각 명제는 기호로 표현되며, ‘AND’, ‘OR’, ‘NOT’ 등의 논리 연산자를 사용하여 결합할 수 있다.</li>
      <li><strong>한계</strong>: 개별 명제의 구조적 성질이나 변수 간의 관계를 표현하는 데 한계가 있다.</li>
    </ul>
  </li>
  <li><strong>술어 논리 (Predicate Logic)</strong>
    <ul>
      <li><strong>정의</strong>: 술어 논리는 개체와 그 속성, 개체 간의 관계를 표현하는 더 강력한 논리 체계이다. 변수와 함수를 도입하여 복잡한 명제를 다룬다.</li>
      <li><strong>장점</strong>: 보다 정교하고 유연한 표현이 가능하여 복잡한 논리적 관계를 다룰 수 있다.</li>
    </ul>
  </li>
</ul>

<h1 id="2-내부-언어">2. 내부 언어</h1>
<p><strong>내부 언어(internal language)</strong> 또는 <strong>내부 표현</strong>(internal representation)은 AI 시스템에서 <strong>지식</strong>을 표현하고 처리하는 방법이다. 이는 <strong>데이터</strong>와 <strong>정보</strong>를 구조화하여 알고리즘이 해석하고 사용할 수 있도록 돕는다. 내부 언어는 <strong>개체</strong>, <strong>속성</strong>, <strong>관계</strong>를 표현하며, AI의 <strong>학습</strong>과 <strong>추론 과정</strong>에서 중요한 역할을 한다. 이러한 표현은 <strong>기호 기반</strong> 또는 <strong>벡터 기반</strong>일 수 있으며, <strong>지식</strong>의 <strong>명확성</strong>과 <strong>효율성</strong>을 보장하는 데 필수적이다.</p>

<h1 id="3-절차적-언어">3. 절차적 언어</h1>
<p>절차적 언어(Procedural Language)는 프로그램의 실행 순서와 절차를 명시적으로 정의하는 언어이다. 프로그래머는 명령문을 순차적으로 작성하여 프로그램이 수행해야 할 작업을 지정하며, 변수와 제어 구조를 사용하여 로직을 구성한다. 대표적인 예로 C, Java, Python 등이 있다.</p>

<h1 id="4-비절차적-언어">4. 비절차적 언어</h1>
<p>비절차적 언어(Declarative Language) 또는 선언형 언어는 프로그램이 무엇을 수행해야 하는지를 명시하는 언어이다. 사용자는 결과를 정의하고, 그 결과를 얻기 위한 과정은 언어가 처리한다. SQL, Prolog, HTML 등이 비절차적 언어의 예이다. 이러한 언어는 주로 데이터베이스 쿼리나 규칙 기반 시스템에서 사용된다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 1. 논리 체계의 기본 개념 2. 내부 언어 3. 절차적 언어 4. 비절차적 언어 loves(vincent, mia). 1. 논리 체계의 기본 개념 명제 논리 (Propositional Logic) 정의: 명제 논리는 참 또는 거짓 값을 가지는 명제들을 다루는 논리 체계이다. 각 명제는 기호로 표현되며, ‘AND’, ‘OR’, ‘NOT’ 등의 논리 연산자를 사용하여 결합할 수 있다. 한계: 개별 명제의 구조적 성질이나 변수 간의 관계를 표현하는 데 한계가 있다. 술어 논리 (Predicate Logic) 정의: 술어 논리는 개체와 그 속성, 개체 간의 관계를 표현하는 더 강력한 논리 체계이다. 변수와 함수를 도입하여 복잡한 명제를 다룬다. 장점: 보다 정교하고 유연한 표현이 가능하여 복잡한 논리적 관계를 다룰 수 있다. 2. 내부 언어 내부 언어(internal language) 또는 내부 표현(internal representation)은 AI 시스템에서 지식을 표현하고 처리하는 방법이다. 이는 데이터와 정보를 구조화하여 알고리즘이 해석하고 사용할 수 있도록 돕는다. 내부 언어는 개체, 속성, 관계를 표현하며, AI의 학습과 추론 과정에서 중요한 역할을 한다. 이러한 표현은 기호 기반 또는 벡터 기반일 수 있으며, 지식의 명확성과 효율성을 보장하는 데 필수적이다. 3. 절차적 언어 절차적 언어(Procedural Language)는 프로그램의 실행 순서와 절차를 명시적으로 정의하는 언어이다. 프로그래머는 명령문을 순차적으로 작성하여 프로그램이 수행해야 할 작업을 지정하며, 변수와 제어 구조를 사용하여 로직을 구성한다. 대표적인 예로 C, Java, Python 등이 있다. 4. 비절차적 언어 비절차적 언어(Declarative Language) 또는 선언형 언어는 프로그램이 무엇을 수행해야 하는지를 명시하는 언어이다. 사용자는 결과를 정의하고, 그 결과를 얻기 위한 과정은 언어가 처리한다. SQL, Prolog, HTML 등이 비절차적 언어의 예이다. 이러한 언어는 주로 데이터베이스 쿼리나 규칙 기반 시스템에서 사용된다.]]></summary></entry><entry><title type="html">3주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/third/" rel="alternate" type="text/html" title="3주차 강의일지" /><published>2024-10-08T00:00:00+00:00</published><updated>2024-10-08T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/third</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/third/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-llm의-종류">1. LLM의 종류</a><br />
<a href="#2-rag란">2. RAG란?</a><br />
<a href="#3-대규모-모델의-유형">3. 대규모 모델의 유형</a>  <br />
<a href="#4-인공지능-모델의-발전-과정">4. 인공지능 모델의 발전 과정</a><br />
<a href="#5-8-puzzle-문제">5. 8-puzzle 문제</a><br />
<a href="#6-krr">6. KR&amp;R</a><br />
<a href="#7-여담">7. 여담</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">print('AI AND NI')</span>
</code></pre></div></div>

<h1 id="1-llm의-종류">1. LLM의 종류</h1>
<ol>
  <li>
    <p>SOTA(State Of The Art) LLM<br />
  SOTA LLM은 State-of-the-Art Large Language Model의 약자로, 현재 기술 수준에서 최고의 성능을 보이는 대규모 언어 모델을 의미한다. 최신 연구와 기술을 반영해 다양한 자연어 처리 작업에서 우수한 성능을 발휘하는 모델이다.</p>
  </li>
  <li>
    <p>sLLM(SLM)<br />
  sLLM은 Specialized Large Language Model로, 특정 도메인이나 목적에 맞게 설계된 대규모 언어 모델을 뜻한다. 일반적인 LLM과 달리 특정 분야에 특화된 데이터를 학습해 해당 분야의 작업에서 더 높은 성능을 보인다.</p>
  </li>
</ol>

<h1 id="2-rag란">2. RAG란?</h1>
<p>RAG는 <strong>Retrieval-Augmented Generation</strong>의 약자로, 정보 검색과 생성 모델을 결합한 방식이다. 먼저 필요한 정보를 검색한 후, 이를 바탕으로 답변을 생성하는 방식이다. 최신 정보나 특정 데이터베이스의 자료를 활용할 수 있는 점이 특징이다.</p>

<h1 id="3-대규모-모델의-유형">3. 대규모 모델의 유형</h1>
<ul>
  <li>
    <p>LLM<br />
  <strong>LLM</strong>은 <strong>Large Language Model</strong>의 약자로, 대규모 데이터로 학습된 자연어 처리 모델을 의미한다. 텍스트 기반 작업에서 높은 성능을 발휘한다.</p>
  </li>
  <li>
    <p>LMM<br />
  <strong>LMM</strong>은 <strong>Large Multimodal Model</strong>로, 텍스트뿐만 아니라 이미지, 비디오 등 여러 형태의 데이터를 동시에 처리할 수 있는 대규모 모델이다.</p>
  </li>
  <li>
    <p>LAM<br />
  <strong>LAM은 Large Audio Model</strong>로, 주로 음성 인식이나 생성 작업에 특화된 대규모 모델이다.</p>
  </li>
  <li>
    <p>LWM<br />
  <strong>LWM</strong>은 <strong>Large Spatial Model</strong>로, 공간적 정보에 초점을 맞춘 대규모 모델이다. 주로 3D 공간 내에서의 물체 인식, 위치 추적 등과 같은 작업에 활용되며, 공간 데이터를 다루는 데 특화되어 있다.</p>
  </li>
</ul>

<h1 id="4-인공지능-모델의-발전-과정">4. 인공지능 모델의 발전 과정</h1>
<p><strong>인공 신경망</strong>(ANN)은 초기 형태의 모델로, 인간의 뇌 구조를 모방한 방식이다. 입력 데이터를 처리하고 출력하는 간단한 구조를 가지고 있지만, 복잡한 문제 해결에는 한계가 있다.
이후 딥러닝이 등장하면서 다층 신경망을 사용하여 더 복잡한 데이터를 처리할 수 있게 되었다. 이로 인해 이미지 인식과 음성 처리 등에서 높은 성능을 발휘하게 된다.
마지막으로 Transformer 모델이 발전하면서 자연어 처리 분야에 혁신을 가져왔다. Transformer는 병렬 처리가 가능해 대규모 데이터를 효율적으로 처리하며, 이후 GPT와 같은 대규모 언어 모델이 등장하게 되었다.</p>

<h1 id="5-8-puzzle-문제">5. 8-puzzle 문제</h1>
<p><img src="https://github.com/user-attachments/assets/2e38efc9-99ff-4d5a-afe1-bd9d1ce59344" alt="1__n4hcTM-akUEoWL1i05xVg" /></p>

<p>8-puzzle 문제를 해결하기 위해 여러 가지 탐색 접근 방식이 있다.</p>

<p><strong>Search</strong>(탐색)는 가능한 모든 상태를 찾는 과정이다. 이 과정에서 <strong>Operation</strong>(작업)은 빈 칸을 이용해 숫자를 이동시키는 행동을 의미한다.</p>

<p>탐색 알고리즘에는 <strong>Depth-First Search</strong>(깊이 우선 탐색)와 <strong>Breadth-First Search</strong>(너비 우선 탐색)가 있다. 깊이 우선 탐색은 가능한 한 깊게 들어가서 노드를 탐색하고, 막히면 이전 노드로 돌아가는 방식이다. 반면 너비 우선 탐색은 현재 노드의 모든 자식 노드를 먼저 탐색한 후 다음 깊이로 넘어간다.</p>

<p><strong>Blind Search</strong>(맹목 탐색)는 문제에 대한 추가 정보를 사용하지 않고 단순히 상태를 탐색하는 방법이다. <strong>Informed Search</strong>(정보 탐색)는 문제에 대한 정보를 활용해 더 효율적으로 탐색하는 방법으로, 더 나은 경로를 선택할 수 있다. 이때, <strong>Heuristic Search</strong>(휴리스틱 탐색)는 각 상태의 점수를 평가하고 최적의 해결책을 찾기 위해 휴리스틱 함수를 활용하는 방식이다.</p>

<p>이와 함께 각 상태의 <strong>Cost</strong>(비용)는 해당 상태로 이동하는 데 드는 자원을 나타내며, <strong>Experience</strong>(경험)은 이전 탐색에서 얻은 정보를 통해 더 나은 결정을 내리는 데 활용된다. 또한, <strong>Shortest Path</strong>(최단 경로)는 목표 상태에 도달하기 위한 최소 이동 횟수를 찾는 것을 의미하며, 이를 통해 8-puzzle 문제를 보다 효과적으로 해결할 수 있다.</p>

<h1 id="6-krr">6. KR&amp;R</h1>
<p>인간의 뇌에서 <strong>internal language</strong>는 사고와 사고 과정을 표현하는 내부적인 언어로, 사람의 인지와 의사결정을 돕는다. 이와 유사하게 인공지능에서도 <strong>knowledge representation and reasoning</strong>(지식 표현 및 추론) 기술을 사용하여 정보를 저장하고 처리한다.</p>

<p><strong>Logic</strong>은 형식적인 언어로, 명제를 기반으로 진리값을 사용해 결론을 도출하는 방식이다. 이를 통해 명확하고 일관된 추론을 수행할 수 있다.</p>

<p><strong>Production Rule</strong>은 “조건-행동” 형태의 규칙으로, 특정 조건이 충족되면 특정 행동을 수행하는 방식이다. 이 방식은 지식 기반 시스템에서 자주 사용되며, 다양한 상황에 대한 처리를 가능하게 한다.</p>

<p><strong>Semantic Network</strong>는 개체와 개체 간의 관계를 노드와 링크로 표현하는 그래프 구조로, 지식 간의 연관성을 시각적으로 나타낸다. 이를 통해 정보의 의미를 더 잘 이해하고, 연결된 정보를 쉽게 찾을 수 있다.</p>

<p><strong>Frame</strong>은 개념을 구조화하여 관련된 속성과 관계를 포함하는 데이터 구조이다. 특정 주제나 개념에 대한 정보를 효과적으로 관리하고 이해하는 데 도움을 준다.</p>

<p>이러한 방식들은 인공지능이 정보를 효율적으로 처리하고, 추론을 통해 결정을 내리는 데 중요한 역할을 한다.</p>

<h1 id="7-여담">7. 여담</h1>
<p><strong>MECE</strong>는 Mutually Exclusive, Collectively Exhaustive의 약자로, 경영에서 문제를 분석할 때 사용하는 논리적 분류 방식이다.<br />
<strong>Mutually Exclusive</strong>는 상호 배타적이라는 뜻으로, 각 항목이 서로 중복되지 않도록 구분하는 것을 말한다.<br />
<strong>Collectively Exhaustive</strong>는 전체를 포괄한다는 의미로, 모든 가능한 경우를 빠짐없이 포함해야 함을 뜻한다. 즉, MECE는 <strong>중복 없이</strong> 명확하게 분류하면서도 <strong>빠진 부분이 없도록</strong> 문제를 체계적으로 분석하는 방법이다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 1. LLM의 종류 2. RAG란? 3. 대규모 모델의 유형 4. 인공지능 모델의 발전 과정 5. 8-puzzle 문제 6. KR&amp;R 7. 여담 print('AI AND NI') 1. LLM의 종류 SOTA(State Of The Art) LLM SOTA LLM은 State-of-the-Art Large Language Model의 약자로, 현재 기술 수준에서 최고의 성능을 보이는 대규모 언어 모델을 의미한다. 최신 연구와 기술을 반영해 다양한 자연어 처리 작업에서 우수한 성능을 발휘하는 모델이다. sLLM(SLM) sLLM은 Specialized Large Language Model로, 특정 도메인이나 목적에 맞게 설계된 대규모 언어 모델을 뜻한다. 일반적인 LLM과 달리 특정 분야에 특화된 데이터를 학습해 해당 분야의 작업에서 더 높은 성능을 보인다. 2. RAG란? RAG는 Retrieval-Augmented Generation의 약자로, 정보 검색과 생성 모델을 결합한 방식이다. 먼저 필요한 정보를 검색한 후, 이를 바탕으로 답변을 생성하는 방식이다. 최신 정보나 특정 데이터베이스의 자료를 활용할 수 있는 점이 특징이다. 3. 대규모 모델의 유형 LLM LLM은 Large Language Model의 약자로, 대규모 데이터로 학습된 자연어 처리 모델을 의미한다. 텍스트 기반 작업에서 높은 성능을 발휘한다. LMM LMM은 Large Multimodal Model로, 텍스트뿐만 아니라 이미지, 비디오 등 여러 형태의 데이터를 동시에 처리할 수 있는 대규모 모델이다. LAM LAM은 Large Audio Model로, 주로 음성 인식이나 생성 작업에 특화된 대규모 모델이다. LWM LWM은 Large Spatial Model로, 공간적 정보에 초점을 맞춘 대규모 모델이다. 주로 3D 공간 내에서의 물체 인식, 위치 추적 등과 같은 작업에 활용되며, 공간 데이터를 다루는 데 특화되어 있다. 4. 인공지능 모델의 발전 과정 인공 신경망(ANN)은 초기 형태의 모델로, 인간의 뇌 구조를 모방한 방식이다. 입력 데이터를 처리하고 출력하는 간단한 구조를 가지고 있지만, 복잡한 문제 해결에는 한계가 있다. 이후 딥러닝이 등장하면서 다층 신경망을 사용하여 더 복잡한 데이터를 처리할 수 있게 되었다. 이로 인해 이미지 인식과 음성 처리 등에서 높은 성능을 발휘하게 된다. 마지막으로 Transformer 모델이 발전하면서 자연어 처리 분야에 혁신을 가져왔다. Transformer는 병렬 처리가 가능해 대규모 데이터를 효율적으로 처리하며, 이후 GPT와 같은 대규모 언어 모델이 등장하게 되었다. 5. 8-puzzle 문제 8-puzzle 문제를 해결하기 위해 여러 가지 탐색 접근 방식이 있다. Search(탐색)는 가능한 모든 상태를 찾는 과정이다. 이 과정에서 Operation(작업)은 빈 칸을 이용해 숫자를 이동시키는 행동을 의미한다. 탐색 알고리즘에는 Depth-First Search(깊이 우선 탐색)와 Breadth-First Search(너비 우선 탐색)가 있다. 깊이 우선 탐색은 가능한 한 깊게 들어가서 노드를 탐색하고, 막히면 이전 노드로 돌아가는 방식이다. 반면 너비 우선 탐색은 현재 노드의 모든 자식 노드를 먼저 탐색한 후 다음 깊이로 넘어간다. Blind Search(맹목 탐색)는 문제에 대한 추가 정보를 사용하지 않고 단순히 상태를 탐색하는 방법이다. Informed Search(정보 탐색)는 문제에 대한 정보를 활용해 더 효율적으로 탐색하는 방법으로, 더 나은 경로를 선택할 수 있다. 이때, Heuristic Search(휴리스틱 탐색)는 각 상태의 점수를 평가하고 최적의 해결책을 찾기 위해 휴리스틱 함수를 활용하는 방식이다. 이와 함께 각 상태의 Cost(비용)는 해당 상태로 이동하는 데 드는 자원을 나타내며, Experience(경험)은 이전 탐색에서 얻은 정보를 통해 더 나은 결정을 내리는 데 활용된다. 또한, Shortest Path(최단 경로)는 목표 상태에 도달하기 위한 최소 이동 횟수를 찾는 것을 의미하며, 이를 통해 8-puzzle 문제를 보다 효과적으로 해결할 수 있다. 6. KR&amp;R 인간의 뇌에서 internal language는 사고와 사고 과정을 표현하는 내부적인 언어로, 사람의 인지와 의사결정을 돕는다. 이와 유사하게 인공지능에서도 knowledge representation and reasoning(지식 표현 및 추론) 기술을 사용하여 정보를 저장하고 처리한다. Logic은 형식적인 언어로, 명제를 기반으로 진리값을 사용해 결론을 도출하는 방식이다. 이를 통해 명확하고 일관된 추론을 수행할 수 있다. Production Rule은 “조건-행동” 형태의 규칙으로, 특정 조건이 충족되면 특정 행동을 수행하는 방식이다. 이 방식은 지식 기반 시스템에서 자주 사용되며, 다양한 상황에 대한 처리를 가능하게 한다. Semantic Network는 개체와 개체 간의 관계를 노드와 링크로 표현하는 그래프 구조로, 지식 간의 연관성을 시각적으로 나타낸다. 이를 통해 정보의 의미를 더 잘 이해하고, 연결된 정보를 쉽게 찾을 수 있다. Frame은 개념을 구조화하여 관련된 속성과 관계를 포함하는 데이터 구조이다. 특정 주제나 개념에 대한 정보를 효과적으로 관리하고 이해하는 데 도움을 준다. 이러한 방식들은 인공지능이 정보를 효율적으로 처리하고, 추론을 통해 결정을 내리는 데 중요한 역할을 한다. 7. 여담 MECE는 Mutually Exclusive, Collectively Exhaustive의 약자로, 경영에서 문제를 분석할 때 사용하는 논리적 분류 방식이다. Mutually Exclusive는 상호 배타적이라는 뜻으로, 각 항목이 서로 중복되지 않도록 구분하는 것을 말한다. Collectively Exhaustive는 전체를 포괄한다는 의미로, 모든 가능한 경우를 빠짐없이 포함해야 함을 뜻한다. 즉, MECE는 중복 없이 명확하게 분류하면서도 빠진 부분이 없도록 문제를 체계적으로 분석하는 방법이다.]]></summary></entry><entry><title type="html">2주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/second/" rel="alternate" type="text/html" title="2주차 강의일지" /><published>2024-09-24T00:00:00+00:00</published><updated>2024-09-24T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/second</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/second/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-ai-pie">1. AI PIE</a><br />
<a href="#2-ai의-분류">2. AI의 분류</a><br />
<a href="#3-xai란">3. XAI란?</a><br />
<a href="#4-causal-ai란">4. Causal AI란?</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">print('AI THINKING')</span>
</code></pre></div></div>

<h1 id="1-ai-pie">1. AI PIE</h1>
<p><img width="526" alt="제목 없음" src="https://github.com/user-attachments/assets/dd6f14b4-21a8-44a9-8dac-65c134f7bb76" /></p>

<h1 id="2-ai의-분류">2. AI의 분류</h1>
<ol>
  <li>Symbolic AI</li>
  <li>Evolutional Programming, Genetic Algorithm</li>
  <li>Artificial Neural Network(ANN)</li>
</ol>

<h1 id="3-xai란">3. XAI란?</h1>
<p><strong>XAI</strong>(설명 가능한 인공지능, Explainable AI)는 인공지능의 결정을 이해 가능하게 만드는 기술이다. 일반적인 인공지능 모델, 특히 딥러닝 기반의 모델은 매우 복잡하여 그 내부 작동 방식을 사람이 해석하기 어렵다. XAI는 이러한 모델이 예측이나 결정을 내리는 과정을 명확하게 설명하는 방법을 제공함으로써, 그 결정이 왜 도출되었는지 이해할 수 있도록 돕는다.</p>

<p>XAI는 <strong>투명성, 신뢰성</strong>, 그리고 <strong>책임성</strong>을 보장하는 데 중요한 역할을 한다. 의료, 금융, 법률과 같은 민감한 분야에서 인공지능이 내린 결정을 설명할 수 있으면, 사용자는 해당 결정을 더 신뢰할 수 있으며, 잘못된 판단이나 편향성을 미리 확인하여 개선할 수 있는 기회를 제공한다.</p>

<h1 id="4-causal-ai란">4. Causal AI란?</h1>
<p><strong>Causal AI</strong>(인과적 인공지능)는 인공지능 시스템이 인과 관계를 이해하고 모델링할 수 있도록 하는 기술이다. 전통적인 AI 모델은 데이터의 상관관계에 기반한 패턴 인식에 주로 집중하지만, Causal AI는 변수 간의 인과적 관계를 파악하여 더 깊이 있는 예측과 의사결정을 가능하게 한다.</p>

<p>이 기술은 실험 설계, 정책 분석, 의료 연구 등 다양한 분야에서 활용될 수 있다. Causal AI는 원인과 결과를 명확히 하고, 특정 행동이나 개입이 결과에 미치는 영향을 평가하는 데 도움을 준다. 이러한 접근은 AI의 신뢰성을 높이고, 더 효과적인 솔루션을 개발하는 데 기여할 수 있다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 1. AI PIE 2. AI의 분류 3. XAI란? 4. Causal AI란? print('AI THINKING') 1. AI PIE 2. AI의 분류 Symbolic AI Evolutional Programming, Genetic Algorithm Artificial Neural Network(ANN) 3. XAI란? XAI(설명 가능한 인공지능, Explainable AI)는 인공지능의 결정을 이해 가능하게 만드는 기술이다. 일반적인 인공지능 모델, 특히 딥러닝 기반의 모델은 매우 복잡하여 그 내부 작동 방식을 사람이 해석하기 어렵다. XAI는 이러한 모델이 예측이나 결정을 내리는 과정을 명확하게 설명하는 방법을 제공함으로써, 그 결정이 왜 도출되었는지 이해할 수 있도록 돕는다. XAI는 투명성, 신뢰성, 그리고 책임성을 보장하는 데 중요한 역할을 한다. 의료, 금융, 법률과 같은 민감한 분야에서 인공지능이 내린 결정을 설명할 수 있으면, 사용자는 해당 결정을 더 신뢰할 수 있으며, 잘못된 판단이나 편향성을 미리 확인하여 개선할 수 있는 기회를 제공한다. 4. Causal AI란? Causal AI(인과적 인공지능)는 인공지능 시스템이 인과 관계를 이해하고 모델링할 수 있도록 하는 기술이다. 전통적인 AI 모델은 데이터의 상관관계에 기반한 패턴 인식에 주로 집중하지만, Causal AI는 변수 간의 인과적 관계를 파악하여 더 깊이 있는 예측과 의사결정을 가능하게 한다. 이 기술은 실험 설계, 정책 분석, 의료 연구 등 다양한 분야에서 활용될 수 있다. Causal AI는 원인과 결과를 명확히 하고, 특정 행동이나 개입이 결과에 미치는 영향을 평가하는 데 도움을 준다. 이러한 접근은 AI의 신뢰성을 높이고, 더 효과적인 솔루션을 개발하는 데 기여할 수 있다.]]></summary></entry><entry><title type="html">1주차 강의일지</title><link href="https://fdrn9999.github.io/post%20formats/first/" rel="alternate" type="text/html" title="1주차 강의일지" /><published>2024-09-10T00:00:00+00:00</published><updated>2024-09-10T00:00:00+00:00</updated><id>https://fdrn9999.github.io/post%20formats/first</id><content type="html" xml:base="https://fdrn9999.github.io/post%20formats/first/"><![CDATA[<blockquote>
  <p>목차<br />
<a href="#1-ai-란">1. AI란?</a><br />
<a href="#2-symbolic-ai">2. Symbolic AI</a><br />
<a href="#3-genetic-algorithm">3. Genetic Algorithm</a><br />
<a href="#4-evolutional-programmaning">4. Evolutional Programmaning</a><br />
<a href="#5-artificial-neural-network">5. Artificial neural network</a><br />
<a href="#6-deep-learning">6. Deep Learning</a><br />
<a href="#7-ai와-관련된-주요-용어">7. AI와 관련된 주요 용어</a><br />
<a href="#8-edge-computing">8. Edge Computing</a><br />
<a href="#9-ai-on-device">9. AI On Device</a><br />
<a href="#10-여담">10. 여담</a></p>
</blockquote>

<div class="language-yaml highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="s">print('hello ai!')</span>
</code></pre></div></div>

<h1 id="1-ai-란">1. AI 란?</h1>
<p><strong>AI</strong>란 Artificial Intelligence 의 약어로, <strong>인공지능</strong>(人工知能)이라고 한다. 인공(人工)이란 <strong>인간이 만든</strong>, 즉  Man-made 라는 뜻이다.<br />
반대되는 개념으로는 Natural Intelligence, 통칭 <strong>NI</strong>가 있다. 한국어로는 <strong>자연지능</strong>(自然智能)이라 한다.</p>

<h1 id="2-symbolic-ai">2. Symbolic AI</h1>
<p>기호주의 인공지능이라고 한다. 기호주의 인공지능은 인공지능에서 문제, 논리, 검색에 대한 높은 수준의 기호주의적 표현을 기반으로 하는 인공지능 연구의 모든 방법을 총칭하는 용어이다.
AI의 초기 발전에 중요한 역할을 했다. 명시적인 지식을 표현하고, 규칙 기반 추론을 하는 특징이 있다.</p>

<h1 id="3-genetic-algorithm">3. Genetic Algorithm</h1>
<p><strong>유전 알고리즘</strong>이라고 한다. <strong>유전 알고리즘</strong>은 <strong>자연 선택</strong>과 <strong>유전학</strong>의 개념을 모방한 최적화 기법이다. 복잡한 문제를 해결하기 위해 <strong>생물의 진화 과정</strong>을 모방하여 해답을 찾아가는 방식이다.</p>

<h1 id="4-evolutional-programmaning">4. Evolutional Programmaning</h1>
<p><strong>진화 프로그램</strong>이라고 한다. 진화 알고리즘의 한 종류로, 유전 알고리즘과 유사하게 <strong>자연 선택</strong>과 <strong>변이</strong>를 모방해 최적화 문제를 해결하는 방법이다. 그러나 유전 알고리즘과는 몇 가지 차이가 있다.
유전 알고리즘은 <strong>해의 표현</strong>에 중점을 두고, <strong>교차</strong>와 <strong>변이</strong> 모두를 사용한다. 반면 진화 프로그래밍은 교차 대신 <strong>변이를 중심</strong>으로 진화시키는 방식이다.</p>

<h1 id="5-artificial-neural-network">5. Artificial neural network</h1>
<p><strong>인공 신경망</strong>(Artificial Neural Network, ANN)은 인간의 뇌에서 영감을 받아 설계된 컴퓨팅 시스템이다. <strong>뉴런을 모방</strong>한 노드들이 서로 연결되어 정보를 처리하는 방식으로, 패턴 인식, 분류, 예측 등 다양한 작업을 수행할 수 있다.</p>

<h1 id="6-deep-learning">6. Deep Learning</h1>
<p><strong>딥 러닝</strong>(Deep Learning)은 인공 신경망의 확장된 형태로, <strong>여러 개의 은닉층</strong>을 가진 <strong>심층 신경망</strong>(Deep Neural Network, DNN)을 사용하여 더욱 복잡한 문제를 해결하는 기술입니다. 딥 러닝은 <strong>데이터의 특징을 자동으로 학습</strong>하는 능력이 뛰어나며, 특히 이미지 인식, 자연어 처리, 음성 인식 등에서 강력한 성능을 보입니다. 토론토 대학교의 제프리 힌튼(Geoffrey Hinton) 교수가 이 분야의 권위자라고 할 수 있다.</p>

<h2 id="7-ai와-관련된-주요-용어">7. AI와 관련된 주요 용어</h2>

<ol>
  <li>Knowledge Representation(지식 표상)</li>
  <li>Reasoning(추론)</li>
  <li>Search(탐색)</li>
  <li>Learning(학습)</li>
  <li>Planning(계획)</li>
  <li>Common Sense Reasoning(상식 추론)</li>
  <li>Knowledge Injection(지식 주입)</li>
  <li>Uncertainty Reasoning(불확실성 추론)</li>
  <li>Ai tools(인공지능 도구)</li>
</ol>

<h2 id="8-edge-computing">8. Edge Computing</h2>
<p><strong>Edge computing</strong>은 데이터 처리를 중앙 집중식 데이터 센터나 클라우드가 아닌, <strong>데이터가 생성되는 곳 가까이에서</strong> 수행하는 컴퓨팅 모델이다.
즉, 데이터를 <strong>물리적으로 가까운 곳</strong>에서 처리하여 네트워크 대역폭 사용량을 줄이고, <strong>지연 시간을 최소화</strong>하는 것을 목표로 합니다. 이는 <strong>IoT</strong>(Internet of Things)와 같은 다양한 기술에서 중요한 역할을 한다.</p>

<h2 id="9-ai-on-device">9. AI On Device</h2>
<p><strong>AI on Device</strong>는 인공지능(AI) 모델을 중앙 서버나 클라우드가 아닌, <strong>로컬 디바이스</strong>(스마트폰, 스마트 스피커, IoT 장치 등)에서 실행하는 기술을 말합니다. 이는 데이터를 클라우드로 전송하지 않고 디바이스 자체에서 AI 처리를 가능하게 하여 빠른 응답, 데이터 프라이버시, 오프라인 작업 등을 지원합니다.</p>

<h2 id="10-여담">10. 여담</h2>
<p>인공지능 환경 구성으로 주로 <strong>GPU</strong>(Graphic Processing Unit)가 사용되어 왔고, AI 구축만을 위해 만들어진 <strong>TPU</strong>(Tensor Processing Unit), <strong>NPU</strong>(Neural Processing Unit) 등이 있다.</p>]]></content><author><name>Jinho</name></author><category term="Post Formats" /><category term="Post Formats" /><category term="readability" /><category term="standard" /><summary type="html"><![CDATA[목차 1. AI란? 2. Symbolic AI 3. Genetic Algorithm 4. Evolutional Programmaning 5. Artificial neural network 6. Deep Learning 7. AI와 관련된 주요 용어 8. Edge Computing 9. AI On Device 10. 여담 ```yaml print(‘]]></summary></entry></feed>