Recent Posts
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
Tags
- GaussianProcess
- supremum
- Higher-order Derivatives
- Variable Scaling
- completenessaxiom
- Binary Tree
- Multiscale Problems
- PINN
- LossFunctions
- archimedeanprinciple
- SG-PINN
- Gradient Imbalance
- Computational Efficiency
- BoundaryCondition
- infimum
- 소셜미디어마케팅
- Dynamic Weighting
- Efficient Training
- Adaptive Optimization
- 이메일마케팅
- NTK
- BoundaryConditionLearning
- VS-PINN
- Adapitveweighting
- densityofrationals
- Stiff PDEs
- PINNs
- Loss Landscape Flattening
- DiffusionEquation
- GradientConstraint
Archives
- Today
- Total
목록GaussianProcess (1)
Mathematics & Computation
목적 : PINN이 훈련 도중 실패하는 이유를 Neural Tangent Kernal 관점에서 분석 Abstract- PINNs은 최근들어 PDE를 포함한 순방향 및 역문제를 풀기위한 유연한 도구로 주목. 하지만 PINN이 실제로 어떻게 학습되는지, 특히 왜 때때로 학습이 완전히 실패하는지에 대해서는 알려진 바가 없음. - 이러한 질문을 NTK (신경 탄젠트 커널)의 시각으로 접근. NTK는 폭이 무한대로 커진 완전 연결 신경망이 gradient descent로 학습될 때의 훈련 역학을 분석할 수 있는 커널 1) 연구목표- NTK는 fully-connected 신경망이 폭이 무한대로 넓어질 때의 학습 동역학을 설명하는 커널- PINN의 NTK를 도출하고, 적절한 조건하에서 이 커널이 학습 중에도 일정하게..
PINNs
2025. 7. 22. 10:27