📈 Math
- 고유값(eigen value)와 고유벡터(eigen vector)이 무엇이고 왜 중요한지 설명해주세요.
- 샘플링(Sampling)과 리샘플링(Resampling)이 무엇이고 리샘플링의 장점을 말씀해주세요.
- 확률 모형과 확률 변수는 무엇인가요?
- 누적 분포 함수와 확률 밀도 함수는 무엇인가요? 수식과 함께 표현해주세요.
- 조건부 확률은 무엇인가요?
- 공분산과 상관계수는 무엇일까요? 수식과 함께 표현해주세요.
- 신뢰 구간의 정의는 무엇인가요?
- p-value를 모르는 사람에게 설명한다면 어떻게 설명하실 건가요?
- R square의 의미는 무엇인가요?
- 평균(mean)과 중앙값(median)중에 어떤 케이스에서 뭐를 써야할까요?
- 중심극한정리는 왜 유용한걸까요?
- 엔트로피(entropy)에 대해 설명해주세요. 가능하면 Information Gain도요.
- 어떨 때 모수적 방법론을 쓸 수 있고, 어떨 때 비모수적 방법론을 쓸 수 있나요?
- “likelihood”와 “probability”의 차이는 무엇일까요?
- 통계에서 사용되는 bootstrap의 의미는 무엇인가요.
- 모수가 매우 적은 (수십개 이하) 케이스의 경우 어떤 방식으로 예측 모델을 수립할 수 있을까요?
- 베이지안과 프리퀀티스트 간의 입장차이를 설명해주실 수 있나요?
- 검정력(statistical power)은 무엇일까요?
- missing value가 있을 경우 채워야 할까요? 그 이유는 무엇인가요?
- 아웃라이어의 판단하는 기준은 무엇인가요?
- 필요한 표본의 크기를 어떻게 계산합니까?
- Bias를 통제하는 방법은 무엇입니까?
- 로그 함수는 어떤 경우 유용합니까? 사례를 들어 설명해주세요.
- 베르누이 분포 / 이항 분포 / 카테고리 분포 / 다항 분포 / 가우시안 정규 분포 / t 분포 / 카이제곱 분포 / F 분포 / 베타 분포 / 감마 분포에 대해 설명해주세요. 그리고 분포 간의 연관성도 설명해주세요.
- 출장을 위해 비행기를 타려고 합니다. 당신은 우산을 가져가야 하는지 알고 싶어 출장지에 사는 친구 3명에게 무작위로 전화를 하고 비가 오는 경우를 독립적으로 질문해주세요. 각 친구는 2/3로 진실을 말하고 1/3으로 거짓을 말합니다. 3명의 친구가 모두 “그렇습니다. 비가 내리고 있습니다”라고 말했습니다. 실제로 비가 내릴 확률은 얼마입니까?
📈 Machine Learning
- 알고 있는 metric에 대해 설명해주세요. (ex. RMSE, MAE, recall, precision ...)
- 정규화를 왜 해야할까요? 정규화의 방법은 무엇이 있나요?
- Local Minima와 Global Minimum에 대해 설명해주세요.
- 차원의 저주에 대해 설명해주세요.
- dimension reduction기법으로 보통 어떤 것들이 있나요?
- PCA는 차원 축소 기법이면서, 데이터 압축 기법이기도 하고, 노이즈 제거기법이기도 합니다. 왜 그런지 설명해주실 수 있나요?
- LSA, LDA, SVD 등의 약자들이 어떤 뜻이고 서로 어떤 관계를 가지는지 설명할 수 있나요?
- Markov Chain을 고등학생에게 설명하려면 어떤 방식이 제일 좋을까요?
- 텍스트 더미에서 주제를 추출해야 합니다. 어떤 방식으로 접근해 나가시겠나요?
- SVM은 왜 반대로 차원을 확장시키는 방식으로 동작할까요? SVM은 왜 좋을까요?
- 다른 좋은 머신 러닝 대비, 오래된 기법인 나이브 베이즈(naive bayes)의 장점을 옹호해보세요.
- 회귀 / 분류시 알맞은 metric은 무엇일까?
- Association Rule의 Support, Confidence, Lift에 대해 설명해주세요.
- 최적화 기법중 Newton’s Method와 Gradient Descent 방법에 대해 알고 있나요?
- 머신러닝(machine)적 접근방법과 통계(statistics)적 접근방법의 둘간에 차이에 대한 견해가 있나요?
- 인공신경망(deep learning이전의 전통적인)이 가지는 일반적인 문제점은 무엇일까요?
- 지금 나오고 있는 deep learning 계열의 혁신의 근간은 무엇이라고 생각하시나요?
- ROC 커브에 대해 설명해주실 수 있으신가요?
- 여러분이 서버를 100대 가지고 있습니다. 이때 인공신경망보다 Random Forest를 써야하는 이유는 뭘까요?
- K-means의 대표적 의미론적 단점은 무엇인가요? (계산량 많다는것 말고)
- L1, L2 정규화에 대해 설명해주세요.
- Cross Validation은 무엇이고 어떻게 해야하나요?
- XGBoost을 아시나요? 왜 이 모델이 캐글에서 유명할까요?
- 앙상블 방법엔 어떤 것들이 있나요?
- feature vector란 무엇일까요?
- 좋은 모델의 정의는 무엇일까요?
- 50개의 작은 의사결정 나무는 큰 의사결정 나무보다 괜찮을까요? 왜 그렇게 생각하나요?
- 스팸 필터에 로지스틱 리그레션을 많이 사용하는 이유는 무엇일까요?
- OLS(ordinary least squre) regression의 공식은 무엇인가요?
📈 Deep Learning
- 딥러닝은 무엇인가요? 딥러닝과 머신러닝의 차이는?
- Cost Function과 Activation Function은 무엇인가요?
- Tensorflow, PyTorch 특징과 차이가 뭘까요?
- Data Normalization은 무엇이고 왜 필요한가요?
- 알고있는 Activation Function에 대해 알려주세요. (Sigmoid, ReLU, LeakyReLU, Tanh 등)
- 오버피팅일 경우 어떻게 대처해야 할까요?
- 하이퍼 파라미터는 무엇인가요?
- Weight Initialization 방법에 대해 말해주세요. 그리고 무엇을 많이 사용하나요?
- 볼츠만 머신은 무엇인가요?
- TF, PyTorch 등을 사용할 때 디버깅 노하우는?
- 뉴럴넷의 가장 큰 단점은 무엇인가? 이를 위해 나온 One-Shot Learning은 무엇인가?
- 요즘 Sigmoid 보다 ReLU를 많이 쓰는데 그 이유는?
- Non-Linearity라는 말의 의미와 그 필요성은?
- ReLU로 어떻게 곡선 함수를 근사하나?
- ReLU의 문제점은?
- Bias는 왜 있는걸까?
- Gradient Descent에 대해서 쉽게 설명한다면?
- 왜 꼭 Gradient를 써야 할까? 그 그래프에서 가로축과 세로축 각각은 무엇인가? 실제 상황에서는 그 그래프가 어떻게 그려질까?
- GD 중에 때때로 Loss가 증가하는 이유는?
- Back Propagation에 대해서 쉽게 설명 한다면?
- Local Minima 문제에도 불구하고 딥러닝이 잘 되는 이유는?
- GD가 Local Minima 문제를 피하는 방법은?
- 찾은 해가 Global Minimum인지 아닌지 알 수 있는 방법은?
- Training 세트와 Test 세트를 분리하는 이유는?
- Validation 세트가 따로 있는 이유는?
- Test 세트가 오염되었다는 말의 뜻은?
- Regularization이란 무엇인가?
- Batch Normalization의 효과는?
- Dropout의 효과는?
- BN 적용해서 학습 이후 실제 사용시에 주의할 점은? 코드로는?
- GAN에서 Generator 쪽에도 BN을 적용해도 될까?
- SGD, RMSprop, Adam에 대해서 아는대로 설명한다면?
- SGD에서 Stochastic의 의미는?
- 미니배치를 작게 할때의 장단점은?
- 모멘텀의 수식을 적어 본다면?
- 간단한 MNIST 분류기를 MLP+CPU 버전으로 numpy로 만든다면 몇줄일까?
- 어느 정도 돌아가는 녀석을 작성하기까지 몇시간 정도 걸릴까?
- Back Propagation은 몇줄인가?
- CNN으로 바꾼다면 얼마나 추가될까?
- 간단한 MNIST 분류기를 TF, PyTorch 등으로 작성하는데 몇시간이 필요한가?
- CNN이 아닌 MLP로 해도 잘 될까?
- 마지막 레이어 부분에 대해서 설명 한다면?
- 학습은 BCE loss로 하되 상황을 MSE loss로 보고 싶다면?
- 딥러닝할 때 GPU를 쓰면 좋은 이유는?
- GPU를 두개 다 쓰고 싶다. 방법은?
- 학습시 필요한 GPU 메모리는 어떻게 계산하는가?
📈 Python
- What is the difference between list and tuples in Python?
- What are the key features of Python?
- What type of language is python? Programming or scripting?
- Python an interpreted language. Explain.
- What is pep 8?
- How is memory managed in Python?
- What is namespace in Python?
- What is PYTHONPATH?
- What are python modules? Name some commonly used built-in modules in Python?
- What are local variables and global variables in Python?
- Is python case sensitive?
- What is type conversion in Python?
- How to install Python on Windows and set path variable?
- Is indentation required in python?
- What is the difference between Python Arrays and lists?
- What are functions in Python?
- What is
__init__
? - What is a lambda function?
- What is self in Python?
- How does break, continue and pass work?
- What does
[::-1]
do? - How can you randomize the items of a list in place in Python?
- What’s the difference between iterator and iterable?
- How can you generate random numbers in Python?
- What is the difference between range & xrange?
- How do you write comments in python?
- What is pickling and unpickling?
- What are the generators in python?
- How will you capitalize the first letter of string?
- How will you convert a string to all lowercase?
- How to comment multiple lines in python?
- What are docstrings in Python?
- What is the purpose of is, not and in operators?
- What is the usage of help() and dir() function in Python?
- Whenever Python exits, why isn’t all the memory de-allocated?
- What is a dictionary in Python?
- How can the ternary operators be used in python?
- What does this mean:
*args
,**kwargs
? And why would we use it? - What does len() do?
- Explain split(), sub(), subn() methods of “re” module in Python.
- What are negative indexes and why are they used?
- What are Python packages?
- How can files be deleted in Python?
- What are the built-in types of python?
- What advantages do NumPy arrays offer over (nested) Python lists?
- How to add values to a python array?
- How to remove values to a python array?
- Does Python have OOps concepts?
- What is the difference between deep and shallow copy?
- How is Multithreading achieved in Python?
- What is the process of compilation and linking in python?
- What are Python libraries? Name a few of them.
- What is split used for?
- How to import modules in python?
- Explain Inheritance in Python with an example.
- How are classes created in Python?
- What is monkey patching in Python?
- Does python support multiple inheritance?
- What is Polymorphism in Python?
- Define encapsulation in Python?
- How do you do data abstraction in Python?
- Does python make use of access specifiers?
- How to create an empty class in Python?
- What does an object() do?
- What is map function in Python?
- Is python numpy better than lists?
- What is GIL in Python language?
- What makes the CPython different from Python?
- What are Decorators in Python?
- What is object interning?
- What is @classmethod, @staticmethod, @property?
📈 AI Math
-
list와 array는 자료구조적으로 어떻게 다른가?
-
속도는 왜 다를까?
-
hint) 객체를 어떻게 받아들이는지?
-
-
컴퓨터는 행을 중시하는가? 열을 중시하는가?
-
numpy와 pandas는 axis를 선택할 수 있는가?
-
강의에서는 numpy는 행을 우선시 하고, 행렬은 행을 우선시 하고 있는 것으로 생각하자.
-
-
transformation이라는 것은 무엇인가?
-
hint) vector의 방향성을 고민해보면 좋겠습니다.
-
vector도 방향성이 있을까?
-
-
우리는 몇차원의 세계를 살아가고 있는가?
- hint) 차원의 개념을 다시 한번 복습.
-
L2 -norm은 어떤 원을 말하는가?
-
Machine learnig/ Deep learning에서 많이 쓰임.
-
어떤 기하학적 성질이 있을까?
-
-
차원에 따라 Metric은 다를까?
- Curse of Dimensionality는 무엇일까?
-
1강(20:36 ~)에서 Robust 학습이 나오는데 Robust란 무엇일까요?
-
두 벡터 사이의 거리를 이용하여 각도를 계산하는데, 이 각도를 무엇을 의미를 할까요?
- 두 벡터의 독립, 종속은 무엇일까요?
-
numpy에서의 transpose와 .T 는 무엇이 다를까?
-
모든 행렬에서 역행렬이 존재할까?
- 존재하지 않는다면 왜 존재하지 않을까?
-
선형회귀분석의 가정조건은 무엇일까?
- i.i.d 조건이란 무엇일까?
-
다중회귀분석은 코드를 어떻게 작성을 해야할까?
-
다중공산성(Multicollinearity)란 무엇일까?
- 항상 해결책이 있을까?
-
위로 볼록, 아래로 볼록, 극대 ,극소는 무엇인가?
-
경사하강법을 쉽게 설명한다면? (대상 : 중학생) / 학습률과 gradient의 방향성에 대해서 서술하시오.
-
함수라는 것은 유치원생분들에게 설명해보시오.
-
Stochastic gradient descent의 단점은 무엇인가 ? batch_size가 작으면 좋을까? 크면 좋을까?
-
batch_size에 따라서 성능이 달라질까?
-
batch에 따라 목적함수가 바뀐다는 것은 무엇일까?
-
-
Local Minimum이나 Global Minimum은 무엇인가? 어떻게 구할수 있을까?
-
(5강. P.7 Softmax함수)
- denumerator = np.exp(vec - np.max(vec, axis=-1, keepdims=True)) 에서 axis=-1은 무엇인가?
-
One-hot vector의 문제점은 무엇인가?
- 해결 방법에는 무엇이 있을까?
-
딥러닝에서 왜 ReLU 함수를 많이 사용할까?
-
latent Vector(잠재 벡터)는 무엇일까?
-
Tensor는 무엇일까?
-
Entropy라는 것은 무엇인가? / 불확실성이란 무엇일까?
-
이산형/연속형 확률변수의 기댓값은 어떻게 되는가?
-
주사위의 확률값은? 동전의 앞/뒷면의 확률값은? 확신하는가?
-
확률분포는 무엇일까? 왜 중요할까?
-
독립사건과 배반사건은 무엇인가? 무엇이 다른가?
-
사후확률과 사전확률, 가능도(likelihood)란 무엇인가?
-
첨도(Kurtsis), 왜도(Skewness)로 무엇을 판단할수 있는가?
-
(6강 P.19 몬테카를로 샘플링) Monte Carlo Sampling 이란? 몬테카를로는 이산형이든 연속형이든 상관없이 성립한다.
-
$X^{i} ~ (i.i.d) P(x)$
-
-
(7강.통계학 맛보기) 불편(Unbiased) 추정량은 무엇일까?
-
중심극한정리(Central Limit Theorem,CLT)는 무엇일까?
-
최대가능도 추정법이란?
-
Likelihood VS Probability의 차이는 무엇일까요?
-
쿨백-라이블러 발산(KL Divergence)는 무엇인가요?
- 최대가능도 추정법은 쿨백-라이블러 발산을 왜 최소화할까요?
-
베이즈정리란 무엇일까?
-
혼동행렬(Confusion Matrix)란 무엇인가?
-
인과관계추론(Causality Inference)은 무엇인가? / 인과관계 VS 상관관계
-
인과관계는 데이터 분포의 변화에 강건한 예측모형을 만들 때 필요합니다.
-
인과관계만으로는 높은 예측 정확도를 담보하기는 어렵습니다.
-
인과관계를 알아내기 위해서는 중첩요인에 대한 파악이 필요합니다.
-
-
Convolution의 Kernel은 현실에서 예시가 무엇일까?
-
주가도 시계열인데 왜 맞추지 못할까? 그 이유는 무엇일까?
-
가변적인 데이터는 무엇인가?
-
truncated BPTT의 문제점은 무엇일까?
-
강화학습이란 무엇인가?
📈 DL Basic
-
Sigmoid함수와 Softmax함수의 차이는 무엇인가?
-
머신러닝과 딥러닝의 차이는 무엇인가?
-
정의는 무엇인가?
-
머신러닝의 분야 / 딥러닝의 분야는 무엇이 있을까?
-
-
Tensorflow 와 pytorch가 다른 것은?
-
입력받는 것은 어떻게 다른가?
-
Tensorflow ->pytorch가 구현이 되려면 어떻게 할까? / pytorch->tensorflow는 어떻게 해야할까?
-
-
지능이라는 것은 무엇일까?
-
DL 책 : Deep learning / by lan Goodfello,Yoshua Benigo, Aaron Courviile
-
DL 강의 : CS231n / NLP : CS224N / graph : CS224W
-
-
이상치 처리 방법에는 무엇이 있는가?
-
Taylor expansion이란 무엇인가?
-
왜 Optimization은 First Order Approximation을 사용을 한는가? Second Order Approximation을 하면 안될까? / 극대,극소는 무엇인가?
-
Support Vector Machine 이란?- Deep Learning ideas that have stood the test of time(https://dennybritz.com/posts/deep-learning-ideas-that-stood-the-test-of-time/)
-
Autoencoder란? / variational autoencoder 란?
-
GPU는 왜 빠른가 ? TPU는 무엇인가?
-
Self-supervised learning는 무엇일까? - SimCLR
-
affine transformation이란?
-
Linear Regression의 가정조건은 무엇인가? - Linear Neural Networks의 조건은 무엇일까?
-
sklearn의 cross_val_score에서는 score = neg_mean_Square_error를 취하고, mean_square_error를 취하면 우리가 알고 있는 수식과 동일하지 않는다. 그 이유는? -
$R^2$ (결정계수)도 -1이 벗어나는 이유는 무엇인가?- https://stats.stackexchange.com/questions/334004/can-r2-be-greater-than-1
- https://datascience.stackexchange.com/questions/93531/neg-mean-squared-error-in-cross-val-score
import numpy as np
from sklearn.datasets import load_boston
from sklearn.linear_model import RidgeCV
from sklearn.cross_validation import cross_val_score
boston = load_boston()
np.mean(cross_val_score(RidgeCV(), boston.data, boston.target, scoring='mean_squared_error')) -154.53681864311497
-
CUDA와 cudnn이란?
-
Pytorch에서 transforms.ToTenser()를 하는 이유는?
-
Num_woekers의 기능은 무엇인가? 정상적으로 잘 작동하는가?
-
Class의 상속개념은 무엇인가 ? Pulic? Private?
-
가중치 초기화에는 무엇이 있는가? 역할을 무엇인가?
-
Gradient Descent는 무엇인가 ? Gradient Exploding 이란?
-
torch.no_grad() -> gradient를 계산하지 않겠다라는 의미는 무엇인가?
-
Batch_size 와 Epoch는 항상 큰게 좋은것일까?
-
분류 평가지표중에 trade-off관계가 있는 지표는 무엇인가?
-
자연어 처리 분야에는 무엇이 있는가? 또한 CV or 추천시스템 분야는 무엇이 있을까?
-
Data Leakage문제는 무엇인가? (ML의 catboost의 논문에서 나오게 됨.) - 참고 : Data Leakage에 대한 개인적인 정리입니다(https://dacon.io/forum/403895)
-
Ensemble learning이란 무엇인가?
-
sharp/falt minimizer란? - 논문 : On Large-batch Training for Deep learning : Generalization Gap and Shapr Minima, 2017
-
Window Size라는 것은 무엇을 의미하는가?
-
Random_seed는 무엇인가?
-
Norm Penalty는 무엇인가? / lagrange multiplier는 무엇인가?
-
Filter는 왜 홀수만 사용하는가?
-
CNN의 가정사항은 무엇인가?
-
Bottleneck architecture란?
-
Local response normalization이란?
-
Skip Connection의 장점은 무엇인가?
-
Convolution / Deconvolution의 장단점은 무엇인가?
-
RCNN에서 Negative sampling이란 무엇인가?
-
Bounding Box는 꼭 SXS으로만 grid를 해야될까?
-
Hidden Markov Model이란? / autoregressive model이란?
-
Image Processing에는 어떤 패키지가 유용할까?
-
CNN에서의 Output_size는 어떻게 측정되는가? - 5X5 filter 2번과 3x3 filter size는 같은가?
-
CNN은 Image에서만 적용이 가능한가? - 왜 MLP에서는 공간학적 정보가 없어지게 되는가?
-
Pooling layer의 기능은 무엇인가?
-
Dimension reduction이란? Principal Component analysis란? - 고유값(Eigenvalue)와 고유벡터(EigenVector) 란?
-
Network가 깊어지게 되면 단점이 무엇이 있을까?
-
VGGnet에서 왜 3x3 convolution을 사용하였는가?
-
Skip-Connection의 장점은 무엇인가? - Bottleneck architecture의 단점이 존재할까? - 병목현상이라는 것은 무엇인가?
-
Batch Normalization과 Dropout은 무엇인가? - 어디서 사용하는게 좋을까?
-
Deformable CNN에 대해서 알아보자.
-
Global Average Pooling에 대해서 알아보자.
-
Detection 과 Semantic Segmentation의 차이는 무엇인가? 어떠한 것이 중심일까?
-
Convolutionalization을 하는 이유는 무엇인가?
-
Autoencoder / variational Autoencoder란?
-
Convolutional neural network는 항상 이미지에서만 사용한 것 인가? - 마찬가지로 Recurrent neural network도 항상 언어에서만 사용이 가능한가?
-
Markov Process는 무엇인가?
-
Vector의 유사도를 어떻게 측정은 하는가?
-
CNN와 RNN에서의 각각 activation 함수로 무엇을 많이 쓰는가? 그 이유는?
-
long Short Term Memory의 장점은 무엇인가?(+gate recurrent unit)
-
Attention과 Transformer에 대해 설명해주세요.
-
Transformer에서 K, Q, V 각각은 어떻게 만들어지나요?
-
Attension, Transformer 학습 방식을 응용한 모델에는 무엇이 있나요?
-
attention functions으로는 additive attention과 dot-product attention이 있는데 각각은 무엇인가? 논문에서는 어떠한 것을 제시를 하였고 왜 그랬는가?
-
postion encoding이란? - offset은 무엇인가?
-
Transformer의 한계는 무엇인가?
-
Transformer는 input order에 왜 independent하게 각 단어에 encoding이 어떻게 되는가?
-
독립 항등 분포 (iid, independent and identically distributed)은 무엇인가?
-
배반사건과 독립사건의 차이는 무엇인가? 예제는 무엇이 있는가?
-
두 확률분포간의 거리를 측정하는 방법에는 무엇이 있는가?
-
Monte Carlo Method란?
-
Empirical Risk Minimization 란?
-
P-value, 왜도(skew), 첨도(kurtosis)의 정의는무엇인가?
-
VAE,GAN, Diffusion model의 장/단점은 무엇일까?