This lecture covers the fundamentals of deep learning, with a focus on generalization, optimization, neural architectures, representation learning, and unsupervised learning. Unlike classical machine learning, deep learning research has struggled to offer clear theoretical explanations for many of these foundational issues. The lecture aims to provide essential insights into the current limitations of deep learning and to highlight open questions that remain at the core of ongoing research. Progress on these topics may pave the way toward a research paradigm grounded more in human-understandable principles, rather than relying primarily on empirical experimentation and serendipitous discovery.
이 강의는 딥러닝의 기본 개념을 다루며, generalization, optimization, neural architectures, representation learning, unsupervised learning 등의 주제를 중심으로 진행됩니다. 고전적인 머신러닝과 달리, 딥러닝 연구는 이러한 근본적인 문제들에 대해 아직까지 명확한 이론적 설명을 제시하지 못하고 있습니다. 본 강의는 딥러닝의 현재 한계를 이해하는 데 필요한 핵심 지식과 여전히 풀리지 않은 주요 연구 질문들을 정리하는 데 목적이 있습니다. 이러한 연구문제들에 대한 심도 있는 이해는 왜 현재 연구 방식이 실험과 discovery 중심인지에 대해 명확한 답변을 제공하고, 또한 현재 연구 방식보다는 조금 더 인간의 지성에 기반한 연구 패러다임으로 회귀할 수 있는 가능성을 열어줄 수 있습니다.