일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 자바
- 합성곱 신경망
- 넘파이
- ack
- 데이터 마이닝
- 넘파이 기초
- c++
- OOP
- cpp
- 디자인 패턴
- 코드트리
- 데이터 분석
- 차원축소
- numpy 기초
- cpp class
- 코딩테스트
- lambda
- 기계학습
- python
- 네트워크 기초
- Design Pattern
- 파이썬
- 머신러닝
- 코딩테스트실력진단
- 넘파이 배열
- java
- Machine Learning
- 코테
- 클러스터링
- NumPy
- Today
- Total
목록전체 글 (69)
준비하는 대학생
https://www.codetree.ai/landing/level-test/6289/result/4?&utm_source=clipboard&utm_medium=text 코드트리 | 코딩테스트 준비를 위한 알고리즘 정석 국가대표가 만든 코딩 공부의 가이드북 코딩 왕초보부터 꿈의 직장 코테 합격까지, 국가대표가 엄선한 커리큘럼으로 준비해보세요. www.codetree.ai 문제 분석 문제는 여러 개의 구간이 주어졌을 때, 가장 많이 겹치는 부분에서 몇 개의 구간이 겹치는지를 찾는 것입니다. 간단한 예를 들면, 구간 [2, 16]과 [4, 6]은 4에서 6까지 겹칩니다. 이러한 방식으로 모든 구간들이 얼마나 겹치는지를 파악하고 가장 많이 겹치는 부분을 찾아야 합니다. 풀이 방법 각 구간의 시작점과 끝점을 점..
데이터 마이닝은 많은 데이터 속에서 유용한 정보나 패턴을 찾아내는 과정입니다. 이 포스트에서는 데이터 마이닝 모델링의 주요 절차와 방법론인 CRISP-DM에 대해 알아보겠습니다. CRISP-DM CRISP-DM은 데이터 마이닝 프로젝트를 수행하는 표준적인 방법론입니다. 여섯 가지 주요 단계로 구성되어 있습니다. 비즈니스 이해 목적 및 목표의 이해 상황 평가 및 데이터 마이닝 목표 설정 프로젝트 계획 수립 데이터 이해 초기 데이터 수집 데이터 탐색 및 품질 검증 데이터 준비 (전 처리) 데이터 설정 및 선택 데이터 정제와 생성 데이터 형식 적용 모델링 모델링 기법 선택 모델 생성 및 평가 평가 결과 평가 및 프로세스 재 검토 향후 단계 결정 전개 모델 전개 계획 및 유지보수 계획 수립 최종 보고서 작성 및..
웹 스크레이핑과 웹 크롤링 웹에서 데이터를 수집하는 방법에는 크게 웹 스크레이핑과 웹 크롤링이 있습니다. 이 두 용어는 종종 혼용되어 사용되지만, 명확한 차이점이 있습니다. 웹 스크레이핑은 특정 웹사이트에서 원하는 정보를 직접 추출하는 것을 의미합니다. 예를 들어, 영화 리뷰, 뉴스 기사, SNS 데이터 등을 수집할 때 사용합니다. 반면, 웹 크롤링은 웹 스크레이핑보다 넓은 범위의 데이터를 시스템적으로 수집하는 것을 말합니다. 이는 주로 검색 엔진에서 사용되며, 연결 구조를 파악하고 인덱싱 하는 데 사용됩니다. 다양한 데이터 수집 방법 RSS 피드: 웹 사이트의 업데이트를 XML 형식으로 제공합니다. OCR: 이미지나 PDF 내의 문자를 인식합니다. 개인화된 데이터: 사용자 동의 하에 개인화된 텍스트 데..
https://www.codetree.ai/cote/16/problems/the-sum-of-the-elements-is-0?&utm_source=clipboard&utm_medium=text 코드트리 | 코딩테스트 준비를 위한 알고리즘 정석 국가대표가 만든 코딩 공부의 가이드북 코딩 왕초보부터 꿈의 직장 코테 합격까지, 국가대표가 엄선한 커리큘럼으로 준비해보세요. www.codetree.ai 문제 분석: 이 문제는 네 개의 수열 A, B, C, D에서 각 수열에서 한 원소씩 선택하여 합한 값이 0이 되는 조합의 수를 찾는 문제입니다. 일반적으로 모든 조합을 시도하여 문제를 해결한다면, 시간 복잡도는 O(n^4)이 되어 n=5000의 최대 크기에서는 시간 내에 해결이 어렵습니다. 따라서 효율적인 방법을 ..
데이터 마이닝은 막대한 양의 데이터에서 숨겨진 패턴, 관계 및 정보를 찾아내는 과정입니다. 이 기술은 다양한 분야에서 활용되며, 비즈니스, 의학, 과학, 금융 등에서 중요한 역할을 합니다.1. 데이터 마이닝의 주요 방법예측 방법(Prediction Methods): 알려진 변수를 사용하여 알 수 없는 다른 변수나 미래 값을 예측합니다. 예를 들어, 과거의 판매 데이터를 기반으로 미래의 판매량을 예측할 수 있습니다.설명 방법(Description Methods): 데이터 내의 패턴을 찾아 데이터를 설명하려는 방법입니다. 이는 데이터의 구조와 관계를 이해하는 데 도움이 됩니다.2. 대표적인 데이터 마이닝 기술분류(Classification): 데이터를 특정 카테고리로 분류하는 기술입니다. 예를 들어, 고객 ..
데이터 마이닝이란 무엇이며, 왜 중요한가? 데이터 마이닝은 현대의 디지털 시대에서 핵심적인 역할을 하는 기술입니다. 그렇다면 데이터 마이닝이란 무엇이며, 왜 중요한지 알아보겠습니다. 왜 데이터를 마이닝해야 할까요? 상업적 관점: 우리 주변에는 웹 데이터, e-commerce, 스마트폰 데이터 등 방대한 양의 데이터가 끊임없이 생성되고 있습니다. 컴퓨터 기술의 발전으로 데이터 처리가 더욱 저렴하고 강력해졌습니다. 경쟁이 치열해진 시대에, 데이터를 통해 고객에게 더 나은 맞춤형 서비스를 제공하는 것은 필수가 되었습니다. 과학적 관점: 위성, 전파 망원경, 마이크로 어레이 등 다양한 기기와 시뮬레이션을 통해 테라바이트 단위의 데이터가 생성됩니다. 이런 방대한 데이터를 처리하고 분석하기 위해서는 전통적인 방법만..
자리 수 단위로 완전탐색 / Carry 피하기 2 https://www.codetree.ai/cote/17/problems/escaping-carry-2?&utm_source=clipboard&utm_medium=text 코드트리 | 코딩테스트 준비를 위한 알고리즘 정석 국가대표가 만든 코딩 공부의 가이드북 코딩 왕초보부터 꿈의 직장 코테 합격까지, 국가대표가 엄선한 커리큘럼으로 준비해보세요. www.codetree.ai 나의 답 import itertools n = int(input()) numbers = [int(input()) for _ in range(n)] max_number = -1 for n1,n2,n3 in itertools.combinations(numbers,3): carry = Fal..
1. 쿠키와 세션 1-1. 쿠키란? 쿠키는 작은 데이터 조각으로, 웹 클라이언트(브라우저)에 저장됩니다. 주로 이름과 값의 쌍으로 구성되며, 웹 사이트가 사용자의 정보를 기억하기 위해 사용됩니다. 용도: 사용자의 로그인 상태 유지 사용자의 선호 언어나 테마 등의 설정 정보 저장 방문 횟수나 광고 클릭 수 등의 트래킹 장기성: 쿠키는 만료 날짜가 정해져 있으며, 그 시점까지 브라우저에 저장됩니다. 1-2. 세션의 정의와 기능 세션은 서버 측에 저장되는 사용자 정보로, 일련의 상호작용을 하나의 상태로 묶기 위해 사용됩니다. 쿠키와 달리 보안에 민감한 정보를 저장하기 적합하며, 각 사용자마다 고유한 세션 ID를 통해 구분됩니다. 세션 ID: 사용자마다 고유한 ID. 보통 쿠키를 통해 클라이언트에 전송되며, 이..