일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- 1과목
- 스크랩핑
- SQL 개발자
- 정리
- Crawling
- 자격증공부
- 딕셔너리
- 태그
- 프로그래머스
- 파이선
- 메서드
- 자격증
- SQLD
- Python
- 튜플
- CSV
- 프로젝트
- SQL
- scraping
- 조건문
- django
- HTML
- 파이썬
- 데이터 타입
- 슬라이싱
- lv0
- 정보처리기사
- time.sleep
- 크롤링
- 데이터베이스
- Today
- Total
목록2023/12 (7)
나의 공부 일기
컴퓨타가 이해할 수 있는 기계어는 우리가 일상생활에서 사용하는 언어와 다른 0과 1로 이루어진 이진 코드를 사용합니다. 이때문에 사람이 이해하기 어렵습니다. 하지만 컴퓨터는 반대로 사람의 언어가 아닌 이 기계어를 잘 이해합니다. 그러므로 사람과 컴퓨터가 대화하기 위해서는 사람의 언어와 기계어를 이어주는 역할인 프로그래밍 언어가 필요합니다. 여기서 프로그래밍 언어로 작성한 파일을 소스 파일 이라고 합니다. 소스파일은 컴퓨터가 바로 이해할 수 없기 때문에 컴파일 이라는 과정을 통해서 0과 1로 이루어진 기계어 파일로 번역한 후 컴퓨터에서 사용합니다. 이런 프로그래밍 언어는 수많은 종류가 있습니다. 대표적으로 C#, C++, C, Python, Java가 있고 이중 파이썬은 공부를 했었고, 이번엔 Java에 ..
같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ https://k-python-note-taking.tistory.com/63 프로젝트) 크롤링/스크랩핑 프로젝트 5일차 1/2 같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ https://k-python-note-taking.tistory.com/62 프로젝트) 크롤링/스크랩핑 프로젝트 4일차 3일차 프로젝트 링크 입니다. https://k-python-note-taking.tistory.com/ k-python-note-taking.tistory.com 이거에 이어서 진행해보도록 하겠습니다. 1/2에서는 장고에 기본적인 기능과 index 페이지를 설정했습니다. 여기서 이..
같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ https://k-python-note-taking.tistory.com/62 프로젝트) 크롤링/스크랩핑 프로젝트 4일차 3일차 프로젝트 링크 입니다. https://k-python-note-taking.tistory.com/61 프로젝트) 크롤링/스크랩핑 프로젝트 3일차 2일차에서는 https://k-python-note-taking.tistory.com/60 프로젝트) 크롤링/스크랩핑 프로젝트 2일 k-python-note-taking.tistory.com 4일차 프로젝트는 여기까지 진행하였습니다. 5일차 마지막으로 4일차에 만들어놓았던 데이터베이스를 이용하여 장고웹사이트를 만들어보도록 하겠습니다. 먼저 장고는 ..
같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ 3일차 프로젝트 링크 입니다. https://k-python-note-taking.tistory.com/61 프로젝트) 크롤링/스크랩핑 프로젝트 3일차 2일차에서는 https://k-python-note-taking.tistory.com/60 프로젝트) 크롤링/스크랩핑 프로젝트 2일차 1일차에서 https://k-python-note-taking.tistory.com/59 프로젝트) 크롤링/스크랩핑 프로젝트 1일차 저는 지금 파이 k-python-note-taking.tistory.com 4일차 와 5일차에서는 장고와 부트스트랩을 활용하여 웹페이지를 간단하게 만들어보겠습니다. 첫번째로 3일차에 만들어두었던 csv파일..
같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ 2일차에서는 https://k-python-note-taking.tistory.com/60 프로젝트) 크롤링/스크랩핑 프로젝트 2일차 1일차에서 https://k-python-note-taking.tistory.com/59 프로젝트) 크롤링/스크랩핑 프로젝트 1일차 저는 지금 파이썬 개발자와 데이터분석에 관한 국비지원을 받고 있습니다. 2주간 글을 작성하지 안했던것 k-python-note-taking.tistory.com 여기까지 다뤄보았습니다. 이번에는 오류를 어떻게 수정하였는지, 추가적으로 작성된 코드는 무엇인지 작성해보겠습니다. from bs4 import BeautifulSoup from selenium i..
같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ 1일차에서 https://k-python-note-taking.tistory.com/59 프로젝트) 크롤링/스크랩핑 프로젝트 1일차 저는 지금 파이썬 개발자와 데이터분석에 관한 국비지원을 받고 있습니다. 2주간 글을 작성하지 안했던것은 이 국비지원을 하며 진행하는 프로젝트에 더 집중하기 위해서였습니다. 먼저 크롤링 k-python-note-taking.tistory.com 여기까지 진행했었고, 추가적으로 진행한 코드들입니다. ls = ['강남구', '강동구', '강북구', '강서구', '관악구', '광진구', '구로구',' 금천구', '노원구', '도봉구', '동대문구', '동작구', '마포구', '서대문구', '서..
같이 프로젝트를 진행한 팀원: https://jihoon44-it.tistory.com/ 저는 지금 파이썬 개발자와 데이터분석에 관한 국비지원을 받고 있습니다. 2주간 글을 작성하지 안했던것은 이 국비지원을 하며 진행하는 프로젝트에 더 집중하기 위해서였습니다. 먼저 크롤링이란 프로그램이 웹 사이트를 정기적으로 돌며 정보를 추출하는 기술을 말합니다. 이런 프로그램은 우리는 크롤러(Crawler) 또는 스파이터(Spider)라고 불립니다. 크롤러의 예로는 우리가 자주 사용하는 네이버의 검색엔진이 해당합니다. 웹 사이트의 링크를 타고 다니면서 웹 사이트들의 데이터를 긁어와 데이터베이스에 저장하며 정기적으로 동작하여 최선정보를 유지하는것이지요. 저희는 3개월정도 공부를하였기에 네이버처럼 완벽하지는 않지만 할 수..