2019-01-01から1年間の記事一覧

新幹線の空席情報をスクレイピング

rfushimi.hatenablog.jp Cookieいらなかった スクレイピングをbeautifulsoupに変更 ループはなし import datetime import os import time import requests from bs4 import BeautifulSoup def say(text): print(text) os.system( rf'powershell -NoProfile -…

第25回シクロクロス全日本選手権大会 内子大会の順位・ラップタイムをグラフ化

全日本シクロクロスエリートのラップタイムデータを集計してみました。 pic.twitter.com/lfxSh9mICz— ストライピーなザイコー (@Zaikou) 2019年12月17日 第25回シクロクロス全日本選手権大会 内子大会の順位・ラップタイムをグラフ化したんだけど微妙に違う …

pdfminerでテキストを座標で抽出しCSVに保存

Pythonクローリング&スクレイピング[増補改訂版] -データ収集・解析のための実践開発ガイド-作者:加藤 耕太出版社/メーカー: 技術評論社発売日: 2019/08/03メディア: Kindle版 PDFスクレイピングよりテキストのみだったので座標とページ数を追加しCSVに保存…

ランナー分析

import pandas as pd import matplotlib.pyplot as plt import japanize_matplotlib # 解像度 import matplotlib as mpl mpl.rcParams['figure.dpi'] = 200 dfs = pd.read_html("https://www.pref.ehime.jp/h14150/malaysiabadminton/seika_runner.html") df…

JFLランキング作成

JFL

imabari.hateblo.jp 新たに作成 crosstabに変更 lambdaに変更 import pandas as pd import numpy as np # 行数 pd.set_option("display.max_columns", None) # データ取得 # 試合結果を取得 url = "http://www.jfl.or.jp/jfl-pc/view/s.php?a=1411&f=2019A00…

名古屋市のデータ解析練習

oku.edu.mie-u.ac.jp twilog.org Pandasで試してみたけど後半はやり方がわからない こんなのができるようになりたい import pandas as pd import matplotlib.pyplot as plt import japanize_matplotlib df = pd.read_csv("Nagoya-HPVV-data.csv", index_col=…

子宮頸がん予防接種調査の結果のPDFをCSV化

PDF

www.city.nagoya.jp oku.edu.mie-u.ac.jp togetter.com PDFをXMLに変換しTOP・LEFTで並び替えして抽出する 完成したCSVファイル drive.google.com Gist github.com PDF変換ソフトをインストール・ダウンロード !apt install poppler-utils !wget https://www…

空き室状況をCSVに変換

シクロの家の空き室状況がわかりにくかったのでCSVに変換 import calendar import datetime import re import pandas as pd import requests from bs4 import BeautifulSoup # スクレイピング def scraping(): url = "http://www.cyclonoie.com/availability…

うるう年の"2月29日"の文字列をdatetimeに変換

月日だけの"2月29日"の文字列からdatetimeに変換すると1900-02-29になり うるう年ではないためエラーが発生 直近のうるう年まで進める import calendar import datetime import re s = "2月29日" today = datetime.date.today() try: dt = datetime.datetime…

台ダムの貯水率をGoogle Apps ScriptからIFTTTにWebhookでPOST

2021/04/18現在利用できません // IFTTTにWebHookをPOSTする function sendIFTTTWebHook(endpoint, values) { var message = { "value1": values[0], "value2": values[1], "value3": "", }; var options = { "method": "POST", "headers": { "Content-Type"…

Produce 101 Japan練習生のランキングチャート作成

qiita.com スクレイピング import requests from bs4 import BeautifulSoup import time url = "https://produce101.jp/rank/" headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko" } 週リストを作成 r = r…

今治市の過去の天気をスクレイピング

import pandas as pd import requests from bs4 import BeautifulSoup # 年月 date = "201909" url = "https://weather.goo.ne.jp/past/887/{date}00/" headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko"…

気象庁の過去の地震をスクレイピング・グラフ・地図表示

震度データベース検索 www.data.jma.go.jp import datetime import re import pandas as pd import requests import matplotlib as mpl import matplotlib.pyplot as plt import seaborn as sns import folium def dms_to_deg(dms): data = re.split("[°.′]"…

後で読む

競馬予測プログラム(Python) github.com qiita.com qiita.com www.jonki.net lms.gacco.org

俺キャッシュレスまとめ

au WALLET プリペイドカード(メイン) au料金の支払を楽天カード au WALLETのチャージは通信料金合算支払い QuicPayで払えるところはApple Pay、au PAY、カードで支払+ポイントカード じぶん銀行 下記のカードがいい場合はそちらを利用 チャージ(100円で1…

PowerShellでExcelの全シートをシート保護、シート保護解除

バッチファイル # シート保護解除 powershell -NoProfile -ExecutionPolicy Unrestricted .\excel-unlock.ps1 %1 # シート保護 powershell -NoProfile -ExecutionPolicy Unrestricted .\excel-lock.ps1 %1 if ( $args -eq $null ) { Write-Error '引数があり…

相席ラウンジのデータをスクレイピングしスプレッドシートで表示する

qiita.com # 場所 =importxml("https://oriental-lounge.com/","//div[@class='shop_name']") # 男 =importxml("https://oriental-lounge.com/","//ul/li[@class='man']/span") # 女 =importxml("https://oriental-lounge.com/","//ul/li[@class='woman']/sp…

読む

Python2年生 スクレイピングのしくみ 体験してわかる!会話でまなべる!作者: 森巧尚出版社/メーカー: 翔泳社発売日: 2019/10/04メディア: 単行本(ソフトカバー)この商品を含むブログを見る Python実践データ分析100本ノック作者: 下山輝昌,松田雄馬,三木…

食べログスクレイピングのJSON-LDを取得

ページ内にJSON-LDがあるので簡単に店舗情報が取得できます。 developers.google.com 店舗名 住所 郵便番号 緯度経度 口コミ数 評価点 import time import json import requests from bs4 import BeautifulSoup from tqdm import tqdm_notebook headers = { …

愛媛県警の不審者情報をテキストマイニング

github.com import datetime from collections import Counter, defaultdict import numpy as np import pandas as pd import japanize_matplotlib import matplotlib.pyplot as plt from janome.tokenizer import Tokenizer from wordcloud import WordClou…

愛媛県警公開交通取締りのPDFからスクレイピング

PDF

www.police.pref.ehime.jp 公開交通取締りのPDFからスクレイピング !pip install tabula-py import re import requests import datetime from bs4 import BeautifulSoup from urllib.parse import urljoin import pandas as pd from tabula import read_pdf …

多摩川の水位をスプレイピング

qiita.com データのある年抽出 import requests from bs4 import BeautifulSoup headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko" } r = requests.get( "http://www1.river.go.jp/cgi-bin/SrchWaterData…

後で見る

paiza.hatenablog.com qiita.com qiita.com qiita.com

geojson

qiita.com

Pandasベース

import pandas as pd from tqdm import tqdm_notebook import matplotlib.pyplot as plt import seaborn as sns # 解像度 import matplotlib as mpl mpl.rcParams['figure.dpi'] = 200 sns.set() import japanize_matplotlib ax = df.plot.barh(title="タイ…

食べログスクレイピング

Pythonクローリング&スクレイピング[増補改訂版] ―データ収集・解析のための実践開発ガイドーに 食べログのスクレイピングの記事が載ってる gihyo.jp サンプルコードもあるのでch06と6-7 定期的にスクレイピングするならscrapyでしたほうがよさそう。

食べログ3.8

konkon3249.hatenablog.com clean-copy-of-onenote.hatenablog.com 食べログEDA · GitHub rebalance.png · GitHub www.otupy.net qiita.com

ぷららをIPoEに変更

モデムもpppoeを切断しないといけないので入力している場合は 接続先ユーザー名の最後に一文字追加して接続できないようにしておく www.iodata.jp

食べログスクレイピング2

抽出数が違うせいかグラフ違う import pandas as pd import numpy as np df = pd.DataFrame(result) df.describe() df_osaka = df[df["pref"] == "osaka"] df_osaka.describe() df_tokyo = df[df["pref"] == "tokyo"] df_tokyo.describe() import matplotlib…

今日の救急病院をツイート

# --- coding: utf-8 --- import datetime import re from urllib.parse import urljoin import requests import twitter from bs4 import BeautifulSoup def scraping(html): soup = BeautifulSoup(html, "html.parser") # スクレイピング tables = soup.fi…