본문 바로가기
728x90

분류 전체보기163

[2주차]11차시 Ensemble learning(앙상블 학습)여러 개의 개별 모델을 조합하여 최적의 모델로 일반화 하는 방법weak classifier들을 결합하여 strong classifier를 만드는 것오버피팅의 문제를 감소시킨다는 장점이 존재배깅(Bagging)Bootstrap aggregation의 약자로 샘플을 여러 번 뽑아 모델을 학습시킨 후 결과물을 집계하는 방식기존의 앙상블 학습과 달리 하나의 모델에 다양한 데이터를 대입훈련 세트에서 중복을 허용하여 샘플링 진행범주형 데이터는 보팅을 통해 집계하고, 연속형 데이터는 평균을 통해 집계학습 데이터가 충분하지 않더라도 충분한 효과를 낼 수 있음High variance 모델이 적합페이스팅(Pasting)배깅과 달리 훈련 세트에서 중복을 허용하지 않음보팅(Voti.. 2024. 5. 28.
[TIL]본캠프 28일차 벡터숫자를 원소로 가지는 리스트 또는 배열공간에서 한 점을 의미(원점으로부터 상대적 위치)같은 형태를 가지는 경우 덧셈, 뺄셈, 성분곱 가능숫자를 곱해줄 경우 길이만 변함(스칼라곱)노름(Norm)벡터의 원점으로부터의 기하학적 거리L1: 변화량의 절댓값L2: 유클리드 거리(피타고라스의 법칙 이용)L2 노름을 이용해 벡터 사이의 각도를 계산할 수 있음행렬벡터를 원소로 가지는 2차원 배열행과 열이라는 인덱스를 가짐특정행을 고정할 경우 행벡터, 특정열을 고정할 경우 열벡터벡터가 한 점이라면 행렬은 공간에 존재하는 여러 점들을 의미모양이 같은 경우 덧셈,뺄셈이 가능행렬곱을 이용해 벡터를 다른 차원의 공간으로 보내는 것이 가능역행렬어떤 행렬의 연산을 거꾸로 되돌리는 행렬행과 열 숫자가 같고 행렬식(determina.. 2024. 5. 27.
[2주차]10차시 하이퍼파라미터(Hyperparameter)기계학습 모델훈련을 관리하는데 사용하는 외부 구성 변수모델을 훈련하기 전에 사용자에 의해 수동으로 설정됨최적값이나 기본값이 없음파라미터(Parameter)모델 내부에서 결정되는 변수로 데이터로부터 결정사용자에 의해 조정되지 않음모델링에 의해 자동으로 결정되는 값하이퍼 파라미터 튜닝기계학습 모델의 성능을 최적화하는 중요한 과정으로 최적의 하이퍼파라미터 세트를 선택하는 방법Manual Search: 설계자의 직관이나 경험에 기반하여 추정하고 결과를 관찰Grid Search: 모든 하이퍼파라미터 조합을 대상으로 모델을 학습하고 평가하여 가장 우수한 성능을 보이는 조합을 찾는 것Random Search: Grid Search와 동일한 방식으로 사용하나, 모든 조합을 다 .. 2024. 5. 27.
[WIL]본캠프 6주차 일주일 동안 뭐했지?기초 프로젝트 마무리SQL 코드카타 진행부스트 클래스 수강FEELINGS🧐 기초 프로젝트에서 어려운 주제를 선정했다고 생각은 했지만 역시나 피드백이 한가득....!그래도 다시 한 번 살펴보고 다음 프로젝트를 진행하면 도움이 될 것 같다!!!힘든 한 주였지만 어찌어찌 마무리!!!FINDINGS🔎 데이터 분석할 때, 목표 먼저 세우는걸 까먹을 때가 많은 것 같다....!!!목표 세우고 차근차근 진행할 것!!!그리고 당연한 걸 검증하고 있는게 아닌가 하는 생각도 계속해서 해야겠다.FUTURE✨기초 프로젝트가 마무리 됐으니 다음주부터 다른 팀원들과 다른 주제로 또 한 챕터 시작!!!!!!👊👊👊👊 2024. 5. 24.
728x90