분류 전체보기106 과적합 과적합(overfit) - layer/node 수가 많아서 혹은 테스트셋과 학습셋이 중복되어 발생 - 학습셋과 테스트셋으로 분류하여 방지 - 신경망을 만들어 샘플로 학습을 진행한 후 결과 저장, 이렇게 저장된 파일을 모델이라고 함 model.fit: 알아서 해주는데 학습 동안 결과 못건들이는 thread 개념 callback 함수: thread가 돌고 있는데 또 다른 thread를 생성하여 필요한 정보를 가져가게 함 model.fit(X, Y, validation_split=0.2, epochs=200, batch_size=200, verbose=0, callbacks=[checkpointer]) -> 전체에서 80만큼 train, 20만큼 test -> train에서 또 20을 validation 오늘.. 2023. 1. 20. Project / 디자인 구현 보호되어 있는 글 입니다. 2023. 1. 20. 다중분류 이제 수업 한번만 더 들으면 끝난다...!! 월수금마다 6시에 일어나서 9시까지 학교 가고 1시간 공부하다가 10시부터 3시 수업 듣느라 힘들었는데..ㅠㅠㅠ 1년 내내 학기마다 6시에 일어나고 3-4시간씩 수업보다 일찍 가서 공부하다 3교시 첫수업 듣고 그러는게 일상이었고 평균 수면시간 4시간이었음 그러다보니 체력이 많이 떨어져서 운동도 시작했는데 체력이 느는 기분도 안들고... 이번 방학까지 그 생활이 이어지니 진짜 죽을 것 같다 이제 통학 그만,,,,, 기숙사 들어가면 사람답게 살아야지 다중분류: 타깃이 가질 수 있는 값이 3개 이상, 타깃이 가지는 값에 대응되는 데이터의 모임으로 클래스 혹은 레이블이라고 함 로지스틱 회귀의 경우 참과 거짓을 판별하기 때문에 값이 하나였지만, 다중 분류 모델은 타깃의.. 2023. 1. 19. Project / 디자인 보호되어 있는 글 입니다. 2023. 1. 19. 로지스틱 회귀 / Keras 로지스틱 회귀: 회귀를 사용하여 데이터가 어떤 범주에 속할 확률을 0에서 1 사이의 값으로 예측하고 그 확률에 따라 가능성이 더 높은 범주에 속하는 것으로 분류해주는 지도 학습 알고리즘 - 실제 값이 1일 때 예측 값이 0에 가까워지면 오차가 커져야 함 (-log(x) 그래프) - 실제 값이 0일 때 예측 값이 1에 가까워지면 오차가 커져야 함 (-log(1-x) 그래프) - sigmoid 함수 사용 신경망의 이해 - 퍼셉트론 - 원래는 XOR 연산 불가능 했음 -> hidden layer - 기울기와 절편 -> 가중치와 바이어스 여기서 가중치가 이산수학에서 배운 그 가중치라서 반가웠음..ㅎㅎ - Vanishing Gradient 문제 -> relu 등 다른 함수 적용 오늘의 실습! Epoch 1/30 .. 2023. 1. 16. Project / Warming-up 보호되어 있는 글 입니다. 2023. 1. 15. 이전 1 ··· 14 15 16 17 18 다음