Commit 8ad6abd8 authored by insun park's avatar insun park
Browse files

Update AI lecture materials: Linear Algebra and Calculus for ML

- Update course materials for Linear Algebra with NumPy (part 5.5)
- Update course materials for Calculus for ML (part 5.6)
- Add new README files for source code directories
- Improve formatting and remove unnecessary line breaks
- Update main AI lecture README
parent ffef1c7c
...@@ -96,7 +96,7 @@ ...@@ -96,7 +96,7 @@
| 파트 (Part) | 주차 (Week) | 주제 (Topic) | 관련 문서 | 소스코드 | | 파트 (Part) | 주차 (Week) | 주제 (Topic) | 관련 문서 | 소스코드 |
|:---:|:---:|:---|:---|:---| |:---:|:---:|:---|:---|:---|
| **1** | 1-5주차 | **AI 개발을 위한 파이썬 마스터리** | [0. 소개](./courses/00_introduction/part_0_introduction.md)<br/>[0.1. AI의 역사](./courses/00_introduction/part_0.1_history_of_ai.md)<br/>[1. 개발환경](./courses/01_ai_development_environment/part_1_ai_development_environment.md)<br/>[2. 파이썬 핵심](./courses/02_python_core_syntax/part_2_python_core_syntax.md)<br/>[3. 컬렉션](./courses/03_python_collections/part_3_python_collections.md)<br/>[4. 객체지향](./courses/04_object_oriented_programming/part_4_object_oriented_programming.md)<br/>[5. AI 라이브러리](./courses/05_ai_core_libraries/part_5_ai_core_libraries.md)<br/>[5.5. 선형대수학](./courses/05.5_linear_algebra_with_numpy/part_5.5_linear_algebra_with_numpy.md)<br/>[5.6. 미적분학](./courses/05.6_calculus_for_ml/part_5.6_calculus_for_ml.md) | [Part 2](./source_code/02_python_core_syntax/)<br/>[Part 3](./source_code/03_python_collections/)<br/>[Part 4](./source_code/04_object_oriented_programming/)<br/>[Part 5](./source_code/05_ai_core_libraries/)<br/>[Part 5.5](./source_code/05.5_linear_algebra_with_numpy/) | | **1** | 1-5주차 | **AI 개발을 위한 파이썬 마스터리** | [0. 소개](./courses/00_introduction/part_0_introduction.md)<br/>[0.1. AI의 역사](./courses/00_introduction/part_0.1_history_of_ai.md)<br/>[1. 개발환경](./courses/01_ai_development_environment/part_1_ai_development_environment.md)<br/>[2. 파이썬 핵심](./courses/02_python_core_syntax/part_2_python_core_syntax.md)<br/>[3. 컬렉션](./courses/03_python_collections/part_3_python_collections.md)<br/>[4. 객체지향](./courses/04_object_oriented_programming/part_4_object_oriented_programming.md)<br/>[5. AI 라이브러리](./courses/05_ai_core_libraries/part_5_ai_core_libraries.md)<br/>[5.5. 선형대수학](./courses/05.5_linear_algebra_with_numpy/part_5.5_linear_algebra_with_numpy.md)<br/>[5.6. 미적분학](./courses/05.6_calculus_for_ml/part_5.6_calculus_for_ml.md) | [Part 2](./source_code/02_python_core_syntax/)<br/>[Part 3](./source_code/03_python_collections/)<br/>[Part 4](./source_code/04_object_oriented_programming/)<br/>[Part 5](./source_code/05_ai_core_libraries/)<br/>[Part 5.5](./source_code/05.5_linear_algebra_with_numpy/)<br/>[Part 5.6](./source_code/05.6_calculus_for_ml/) |
| **2** | 6-9주차 | **핵심 AI 모델 개발 및 서빙** | [6. 머신러닝](./courses/06_machine_learning/part_6_machine_learning.md)<br/>[7. 딥러닝](./courses/07_deep_learning/part_7_deep_learning.md)<br/>[7.1. RNN](./courses/07_deep_learning/part_7.1_recurrent_neural_networks.md)<br/>[7.2. Transformer](./courses/07_deep_learning/part_7.2_transformer_and_llm_principles.md)<br/>[7.3. LangChain](./courses/07_deep_learning/part_7.3_llm_application_development_with_langchain.md)<br/>[7.4. GNN](./courses/07_deep_learning/part_7.4_graph_neural_networks.md)<br/>[7.5. 강화학습](./courses/07_deep_learning/part_7.5_reinforcement_learning.md)<br/>[8. FastAPI 서빙](./courses/08_model_serving_with_fastapi/part_8_model_serving_with_fastapi.md)<br/>[9. 프로덕션 API](./courses/09_production_ready_api/part_9_production_ready_api.md) | [Part 6](./source_code/06_machine_learning/)<br/>[Part 7](./source_code/07_deep_learning/)<br/>[Part 8](./source_code/08_model_serving_with_fastapi/)<br/>[Part 9](./source_code/09_production_ready_api/) | | **2** | 6-9주차 | **핵심 AI 모델 개발 및 서빙** | [6. 머신러닝](./courses/06_machine_learning/part_6_machine_learning.md)<br/>[7. 딥러닝](./courses/07_deep_learning/part_7_deep_learning.md)<br/>[7.1. RNN](./courses/07_deep_learning/part_7.1_recurrent_neural_networks.md)<br/>[7.2. Transformer](./courses/07_deep_learning/part_7.2_transformer_and_llm_principles.md)<br/>[7.3. LangChain](./courses/07_deep_learning/part_7.3_llm_application_development_with_langchain.md)<br/>[7.4. GNN](./courses/07_deep_learning/part_7.4_graph_neural_networks.md)<br/>[7.5. 강화학습](./courses/07_deep_learning/part_7.5_reinforcement_learning.md)<br/>[8. FastAPI 서빙](./courses/08_model_serving_with_fastapi/part_8_model_serving_with_fastapi.md)<br/>[9. 프로덕션 API](./courses/09_production_ready_api/part_9_production_ready_api.md) | [Part 6](./source_code/06_machine_learning/)<br/>[Part 7](./source_code/07_deep_learning/)<br/>[Part 8](./source_code/08_model_serving_with_fastapi/)<br/>[Part 9](./source_code/09_production_ready_api/) |
| **3** | 10-13주차 | **프로덕션 MLOps 및 AI 심화** | [10. 전문가 과정](./courses/10_expert_path/part_10_expert_path.md)<br/>[11. MLOps](./courses/11_mlops/part_11_mlops.md)<br/>[12. 모델 최적화](./courses/12_model_optimization/part_12_model_optimization.md)<br/>[13. 생성형 AI](./courses/13_generative_ai/part_13_generative_ai.md)<br/>[14. AI 윤리](./courses/14_ai_ethics/part_14_ai_ethics.md) | [Part 11](./source_code/11_mlops/)<br/>[Part 12](./source_code/12_model_optimization/)<br/>[Part 13](./source_code/13_generative_ai/)<br/>[Part 14](./source_code/14_ai_ethics/) | | **3** | 10-13주차 | **프로덕션 MLOps 및 AI 심화** | [10. 전문가 과정](./courses/10_expert_path/part_10_expert_path.md)<br/>[11. MLOps](./courses/11_mlops/part_11_mlops.md)<br/>[12. 모델 최적화](./courses/12_model_optimization/part_12_model_optimization.md)<br/>[13. 생성형 AI](./courses/13_generative_ai/part_13_generative_ai.md)<br/>[14. AI 윤리](./courses/14_ai_ethics/part_14_ai_ethics.md) | [Part 11](./source_code/11_mlops/)<br/>[Part 12](./source_code/12_model_optimization/)<br/>[Part 13](./source_code/13_generative_ai/)<br/>[Part 14](./source_code/14_ai_ethics/) |
| **4** | 14-15주차 | **최종 캡스톤 프로젝트** | [15. 캡스톤](./courses/15_capstone_project/part_15_capstone_project.md) | (프로젝트 개별 진행) | | **4** | 14-15주차 | **최종 캡스톤 프로젝트** | [15. 캡스톤](./courses/15_capstone_project/part_15_capstone_project.md) | (프로젝트 개별 진행) |
......
# Part 5.5: NumPy로 배우는 선형대수학 # Part 5.5: NumPy로 배우는 선형대수학 - 직관적 이해 중심
이 파트에서는 머신러닝과 딥러닝의 수학적 기반이 되는 선형대수학의 핵심 개념을 NumPy를 활용하여 학습합니다. ## 🎯 학습 목표
## 📚 학습 자료 이번 파트에서는 **복잡한 수식보다는 시각화와 비유를 통해** 선형대수의 핵심 개념을 직관적으로 이해합니다.
- **[강의 노트](./part_5.5_linear_algebra_with_numpy.md)**: 선형대수학의 핵심 개념과 NumPy를 활용한 구현 방법에 대한 상세 설명을 제공합니다. ### 핵심 접근법
- **[핵심 용어집](../../glossary.md)**: 이 파트의 주요 용어와 개념을 정리했습니다. - **벡터** = "방향과 크기를 가진 화살표"
- **행렬** = "데이터를 변형하는 마법 상자"
- **고유벡터** = "변하지 않는 특별한 방향"
- **PCA** = "데이터의 핵심 방향 찾기"
## 💻 실습 코드 ## 📚 학습 내용
- **[예제 코드](../../source_code/05.5_linear_algebra_with_numpy/)**: 강의 내용을 직접 실행해볼 수 있는 코드입니다. ### 1. 벡터: 방향과 크기를 가진 화살표 🏹
- 벡터의 직관적 이해 (화살표 비유)
- 벡터 연산의 시각화 (이동 경로 합치기)
- 벡터 내적의 의미 (서로 얼마나 같은 방향인지)
## 📋 주요 학습 내용 ### 2. 행렬: 데이터를 변형하는 마법 상자 🎁
- 행렬 변환의 시각화 (회전, 크기 조절, 전단)
- 행렬곱의 직관적 의미 (복합 변환)
- 이미지 필터링으로 이해하는 행렬
1. **벡터와 행렬의 기본 개념** ### 3. 고유값과 고유벡터: 변하지 않는 특별한 방향 🧭
- 벡터의 연산: 덧셈, 뺄셈, 스칼라 곱, 내적, 외적 - 고유벡터의 시각화 (방향 유지)
- 행렬의 연산: 덧셈, 뺄셈, 곱셈, 전치, 행렬식, 역행렬 - PCA: 데이터의 핵심 방향 찾기
- 차원 축소의 직관적 이해
2. **고급 선형대수 개념** ### 4. 실제 활용 예제
- 고유값과 고유벡터 - 이미지 처리와 행렬
- 특이값 분해(SVD) - 추천 시스템과 행렬 분해
- 선형 변환 - 신경망 가중치 시각화
3. **머신러닝에서의 응용** ## 🛠️ 실습 도구
- 주성분 분석(PCA)
- 선형 회귀 - **Python + NumPy**: 실제 계산과 구현
- 딥러닝에서의 활용 - **Matplotlib**: 시각화로 직관적 이해
- **Jupyter Notebook**: 대화형 학습
- **실제 예제**: 이미지 처리, 데이터 분석 등
## 📖 학습 자료
### 강의 자료
- `part_5.5_linear_algebra_with_numpy.md`: 시각화 중심의 이론 설명
### 실습 코드
- `source_code/part_5.5_linear_algebra_with_numpy.py`: 11개의 시각화 예제
## 🎯 핵심 메시지
> **"왜 이걸 배워야 하는가?"** 에 집중합니다.
>
> 선형대수는 머신러닝의 "언어"입니다.
> 복잡한 수식보다는 **직관적 이해**와 **실제 활용**에 집중하세요!
## 🚀 다음 단계
이제 미적분을 배워서 **"어떻게 최적화할 것인가?"**를 알아보겠습니다!
--- ---
......
# Part 5.6: 머신러닝을 위한 미적분 # Part 5.6: 머신러닝/딥러닝을 위한 미적분 - 직관적 이해 중심
딥러닝과 머신러닝의 학습 원리를 이해하기 위한 핵심 수학 개념인 미적분을 다룹니다. ## 🎯 학습 목표
## 학습 목표 이번 파트에서는 **복잡한 수식보다는 시각화와 비유를 통해** 미적분의 핵심 개념을 직관적으로 이해합니다.
- 미분의 개념과 기하학적 의미를 이해합니다. ### 핵심 접근법
- 머신러닝 학습에서 미분이 왜 중요한지, 특히 비용 함수와 경사 하강법의 관계를 이해합니다. - **미분** = "순간 변화율", "기울기"
- 편미분과 그래디언트의 개념을 파악합니다. - **기울기 하강법** = "산에서 내려오는 사람"
- Python의 `SymPy`, `NumPy` 라이브러리를 사용하여 미분 계수를 계산하는 방법을 실습합니다. - **편미분** = "여러 변수 중 하나만 바꾸기"
- **연쇄법칙** = "파이프라인을 통해 변화 전파"
## 내용 ## 📚 학습 내용
1. **[머신러닝/딥러닝을 위한 미적분](./part_5.6_calculus_for_ml.md)** ### 1. 미분: 순간 변화율과 기울기 📈
- 미분의 개념과 역할 - 미분의 직관적 이해 (기울기 시각화)
- 경사 하강법과 그래디언트 - 여러 점에서의 미분값 비교
- 연쇄 법칙과 역전파 - 수치 미분 vs 해석적 미분
- Python을 이용한 미분 실습 (기호적, 수치적)
- 적분의 기본 개념
본 파트를 통해 모델이 어떻게 오차로부터 학습하고 파라미터를 최적화하는지에 대한 수학적 원리를 이해할 수 있습니다. ### 2. 기울기 하강법: 산에서 내려오는 사람 🏔️
\ No newline at end of file - 기울기 하강법의 시각화
- 학습률의 중요성
- 다양한 최적화 알고리즘 비교
### 3. 편미분: 여러 변수 중 하나만 바꾸기 🔧
- 편미분의 3D 시각화
- 그래디언트 벡터의 의미
- 다변수 함수의 최적화
### 4. 연쇄법칙: 파이프라인을 통해 변화 전파 🔗
- 합성 함수의 미분
- 신경망의 역전파 이해
- 딥러닝의 핵심 원리
### 5. 실제 활용 예제
- 선형 회귀의 경사 하강법
- 간단한 신경망 구현
- 최적화 알고리즘 비교
## 🛠️ 실습 도구
- **Python + NumPy**: 실제 계산과 구현
- **Matplotlib**: 시각화로 직관적 이해
- **Jupyter Notebook**: 대화형 학습
- **실제 예제**: 선형 회귀, 신경망 등
## 📖 학습 자료
### 강의 자료
- `part_5.6_calculus_for_ml.md`: 시각화 중심의 이론 설명
### 실습 코드
- `source_code/linear_regression_gradient_descent.py`: 11개의 시각화 예제
## 🎯 핵심 메시지
> **"왜 이걸 배워야 하는가?"** 에 집중합니다.
>
> 미적분은 머신러닝의 "학습 엔진"입니다.
> 복잡한 수식보다는 **직관적 이해**와 **실제 구현**에 집중하세요!
## 🚀 다음 단계
이제 선형대수와 미적분을 모두 배웠으니, **실제 머신러닝 모델**을 만들어보겠습니다!
\ No newline at end of file
# NumPy로 배우는 선형대수학 실습 코드 # 선형대수 시각화 실습 코드
이 디렉토리에는 NumPy를 활용하여 선형대수학 개념을 실습할 수 있는 코드가 포함되어 있습니다. ## 🎯 목적
이 디렉토리에는 **시각화와 비유를 중심으로** 선형대수의 핵심 개념을 직관적으로 이해할 수 있는 실습 코드가 포함되어 있습니다.
## 📁 파일 구조 ## 📁 파일 구조
- **`part_5.5_linear_algebra_with_numpy.py`**: 선형대수학 개념을 NumPy로 구현한 주요 실습 코드 ```
05.5_linear_algebra_with_numpy/
├── README.md # 이 파일
└── part_5.5_linear_algebra_with_numpy.py # 11개의 시각화 예제
```
## 🚀 실행 방법
### 1. 환경 설정
```bash
pip install numpy matplotlib scipy
```
### 2. 코드 실행
```bash
python part_5.5_linear_algebra_with_numpy.py
```
## 📚 실습 내용
### 1. 벡터 시각화 🏹
- **파일**: `visualize_vectors()`
- **목적**: 벡터를 화살표로 시각화하여 방향과 크기 이해
- **핵심**: 벡터 = "방향과 크기를 가진 화살표"
### 2. 벡터 연산 🚶‍♂️
- **파일**: `vector_operations()`
- **목적**: 벡터 덧셈을 "이동 경로 합치기"로 이해
- **핵심**: 벡터 덧셈의 기하학적 의미
### 3. 벡터 유사도 📊
- **파일**: `vector_similarity()`
- **목적**: 내적을 통해 벡터 간 유사도 측정
- **핵심**: 내적 = "서로 얼마나 같은 방향인지"
### 4. 행렬 변환 🎁
- **파일**: `matrix_transformations()`
- **목적**: 행렬을 "데이터 변형기"로 이해
- **핵심**: 회전, 크기 조절, 전단 변환 시각화
### 5. 행렬곱 🔄
- **파일**: `matrix_multiplication()`
- **목적**: 행렬곱을 "복합 변환"으로 이해
- **핵심**: 변환의 순서적 적용
### 6. 고유벡터 🧭
- **파일**: `eigenvectors_visualization()`
- **목적**: 고유벡터를 "변하지 않는 특별한 방향"으로 이해
- **핵심**: 변환 후에도 방향이 유지되는 벡터
### 7. PCA 📈
- **파일**: `pca_visualization()`
- **목적**: PCA를 "데이터의 핵심 방향 찾기"로 이해
- **핵심**: 차원 축소의 직관적 이해
### 8. 이미지 필터링 🖼️
- **파일**: `image_filtering()`
- **목적**: 행렬을 이미지 처리에 활용
- **핵심**: 커널 필터링의 원리
### 9. 추천 시스템 💡
- **파일**: `recommendation_system()`
- **목적**: 행렬 분해를 추천 시스템에 활용
- **핵심**: 사용자-아이템 행렬의 분해
### 10. 벡터 클래스 🛠️
- **파일**: `my_vector_class()`
- **목적**: 나만의 벡터 클래스 구현
- **핵심**: 객체지향 프로그래밍과 벡터
### 11. 신경망 가중치 🧠
- **파일**: `neural_network_weights()`
- **목적**: 신경망 가중치를 행렬로 시각화
- **핵심**: 딥러닝에서의 행렬 활용
## 🎯 학습 팁
## 🚀 실습 방법 ### 시각화 중심 학습
- 각 예제를 실행한 후 그래프를 자세히 관찰하세요
- 파라미터를 바꿔보며 결과가 어떻게 변하는지 확인하세요
- 코드의 주석을 읽고 각 단계의 의미를 이해하세요
1. 먼저 필요한 패키지가 설치되어 있는지 확인합니다: ### 실습 중심 접근
```bash - 코드를 직접 수정해보세요
pip install numpy matplotlib - 새로운 예제를 추가해보세요
``` - 다른 데이터셋에 적용해보세요
2. 코드를 실행합니다: ## 🔧 커스터마이징
```bash
python part_5.5_linear_algebra_with_numpy.py
```
3. 특정 섹션만 실행하려면 코드 내 주석을 참고하여 해당 부분을 활성화하거나 비활성화합니다. ### 파라미터 조정
```python
# 벡터 크기 조정
vectors = {
'v1': np.array([5, 3]), # 더 큰 벡터
'v2': np.array([-3, 2]), # 다른 방향
}
## 📋 주요 실습 내용 # 학습률 조정
learning_rate = 0.05 # 더 작은 학습률
```
- **벡터 연산**: 벡터의 생성, 크기 계산, 덧셈, 뺄셈, 스칼라 곱, 내적, 외적 ### 새로운 예제 추가
- **행렬 연산**: 행렬의 생성, 덧셈, 뺄셈, 곱셈, 전치, 행렬식, 역행렬 ```python
- **고급 연산**: 고유값, 고유벡터, 특이값 분해(SVD) def my_custom_visualization():
- **시각화**: 벡터, 행렬, 선형 변환의 기하학적 표현 """나만의 시각화 함수"""
- **머신러닝 응용**: 주성분 분석(PCA), 선형 회귀의 구현 # 여기에 코드 작성
pass
```
## 🔍 학습 목표 ## 🎉 핵심 메시지
이 실습 코드를 통해 다음을 배우게 됩니다: > **"왜 이걸 배워야 하는가?"** 에 집중합니다.
- NumPy의 기본 사용법과 선형대수학적 연산 방법 >
- 추상적인 수학 개념을 코드로 구현하는 능력 > 선형대수는 머신러닝의 "언어"입니다.
- 선형대수학이 머신러닝과 딥러닝에 어떻게 적용되는지 이해 > 복잡한 수식보다는 **직관적 이해**와 **실제 활용**에 집중하세요!
--- ## 📖 추가 자료
[↩️ 전체 코드 목록으로 돌아가기](../README.md) - [3Blue1Brown - Essence of Linear Algebra](https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab)
\ No newline at end of file - [NumPy 공식 문서](https://numpy.org/doc/)
- [Matplotlib 튜토리얼](https://matplotlib.org/stable/tutorials/index.html)
\ No newline at end of file
# 미적분 시각화 실습 코드
## 🎯 목적
이 디렉토리에는 **시각화와 비유를 중심으로** 미적분의 핵심 개념을 직관적으로 이해할 수 있는 실습 코드가 포함되어 있습니다.
## 📁 파일 구조
```
05.6_calculus_for_ml/
├── README.md # 이 파일
└── linear_regression_gradient_descent.py # 11개의 시각화 예제
```
## 🚀 실행 방법
### 1. 환경 설정
```bash
pip install numpy matplotlib
```
### 2. 코드 실행
```bash
python linear_regression_gradient_descent.py
```
## 📚 실습 내용
### 1. 미분 시각화 📈
- **파일**: `visualize_derivatives()`
- **목적**: 미분을 "순간 변화율"과 "기울기"로 이해
- **핵심**: 접선의 기울기 = 미분값
### 2. 여러 점에서의 미분 📊
- **파일**: `visualize_multiple_derivatives()`
- **목적**: 함수의 여러 점에서 기울기 변화 관찰
- **핵심**: 미분의 기하학적 의미
### 3. 수치 vs 해석적 미분 🔍
- **파일**: `numerical_vs_analytical_derivatives()`
- **목적**: 두 미분 방법의 비교
- **핵심**: 수치 근사 vs 정확한 해
### 4. 기울기 하강법 🏔️
- **파일**: `gradient_descent_visualization()`
- **목적**: 기울기 하강법을 "산에서 내려오는 사람"으로 이해
- **핵심**: 최적화 과정의 시각화
### 5. 학습률 비교 ⚡
- **파일**: `compare_learning_rates()`
- **목적**: 학습률이 최적화에 미치는 영향
- **핵심**: 적절한 학습률의 중요성
### 6. 편미분 🔧
- **파일**: `partial_derivatives_visualization()`
- **목적**: 편미분을 "여러 변수 중 하나만 바꾸기"로 이해
- **핵심**: 3D 시각화로 다변수 함수 이해
### 7. 그래디언트 벡터 🧭
- **파일**: `gradient_vector_visualization()`
- **목적**: 그래디언트 벡터의 방향과 크기
- **핵심**: 가장 가파르게 증가하는 방향
### 8. 연쇄법칙 🔗
- **파일**: `chain_rule_visualization()`
- **목적**: 연쇄법칙을 "파이프라인을 통해 변화 전파"로 이해
- **핵심**: 합성 함수의 미분
### 9. 신경망 역전파 🧠
- **파일**: `simple_neural_network()`
- **목적**: 간단한 신경망의 역전파 과정
- **핵심**: 딥러닝의 핵심 원리
### 10. 선형 회귀 📊
- **파일**: `linear_regression_gradient_descent()`
- **목적**: 선형 회귀의 경사 하강법 구현
- **핵심**: 실제 머신러닝 모델 학습
### 11. 최적화 알고리즘 비교 🏁
- **파일**: `compare_optimizers()`
- **목적**: 다양한 최적화 알고리즘 비교
- **핵심**: 모멘텀의 효과
## 🎯 학습 팁
### 시각화 중심 학습
- 각 예제를 실행한 후 그래프를 자세히 관찰하세요
- 파라미터를 바꿔보며 결과가 어떻게 변하는지 확인하세요
- 코드의 주석을 읽고 각 단계의 의미를 이해하세요
### 실습 중심 접근
- 코드를 직접 수정해보세요
- 새로운 함수로 테스트해보세요
- 다른 최적화 문제에 적용해보세요
## 🔧 커스터마이징
### 파라미터 조정
```python
# 학습률 조정
learning_rate = 0.05 # 더 작은 학습률
# 함수 변경
def f(x):
return x**3 + 2*x + 1 # 다른 함수로 테스트
```
### 새로운 예제 추가
```python
def my_custom_optimization():
"""나만의 최적화 함수"""
# 여기에 코드 작성
pass
```
## 🎉 핵심 메시지
> **"왜 이걸 배워야 하는가?"** 에 집중합니다.
>
> 미적분은 머신러닝의 "학습 엔진"입니다.
> 복잡한 수식보다는 **직관적 이해**와 **실제 구현**에 집중하세요!
## 📖 추가 자료
- [3Blue1Brown - Calculus](https://www.youtube.com/playlist?list=PLZHQObOWTQDMsr9K-rj53DwVRMYO3t5Yr)
- [Khan Academy - Calculus](https://www.khanacademy.org/math/calculus-1)
- [MIT OpenCourseWare - Calculus](https://ocw.mit.edu/courses/mathematics/18-01sc-single-variable-calculus-fall-2010/)
\ No newline at end of file
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment