int-info.com
arakaki.tokyo
レイアウト座標情報に対するランク学習を使って、NDLOCRに読み順付与機能(読み順ソート機能)を追加してみました。https://t.co/3h7OXaHCjS— Toru Aoike (@blue0620) 2022年5月2日 current.ndl.go.jp lab.ndl.go.jp lab.ndl.go.jp qiita.com
import pathlib from urllib.parse import urljoin import pandas as pd import requests from bs4 import BeautifulSoup base_url = "http://www.qq.pref.ehime.jp/qq38/WP0805/RP080501BL" payload = { "_blockCd": "", "forward_next": "", "torinBlockDe…
www.npa.go.jp kamonohashiperry.com github.com www.geospatial.jp nobutobook.blogspot.com www.gis-py.com
github.com
speakerdeck.com speakerdeck.com www.me.titech.ac.jp speakerdeck.com 最適化超入門 from Takami Sato www.slideshare.net scmopt.github.io
github.com pdfbox = tabula pdfminer = camelot なのでテキスト変換できてない場合はCSVも失敗
レイアウト座標情報に対するランク学習を使って、NDLOCRに読み順付与機能(読み順ソート機能)を追加してみました。https://t.co/3h7OXaHCjS— Toru Aoike (@blue0620) 2022年5月2日 github.com zenn.dev
import pandas as pd year = "2022" def make_cal(df0, fn): df1 = df0.pivot( index=["remainder"], columns=["month", "quotient"], values=["day", "value"] ) df1.columns = df1.columns.reorder_levels(order=[1, 2, 0]) df1.sort_index(axis=1, inplac…
lab.ndl.go.jp NDL OCRを Google Colaboratoryで動くようにしてみました。無料で誰でも試せるはず、、、https://t.co/PQFVA1Zriz— Toru Aoike (@blue0620) 2022年4月27日
from folium_vector import VectorGridProtobuf import folium map = folium.Map(tiles=None, location=[33.84167, 132.76611], zoom_start=14) # Googleマップ標準 folium.raster_layers.TileLayer( "https://{s}.google.com/vt/lyrs=m&x={x}&y={y}&z={z}",…
!pip install git+https://github.com/iwpnd/folium-vector.git import folium from folium_vector import VectorGridProtobuf url = "https://area.uqcom.jp/api2/rakuten/{z}/{x}/{y}.mvt" m = folium.Map() options = { "vectorTileLayerStyles": { "raku…
import folium import geopandas as gpd import pandas as pd from folium.plugins import Search url = "https://docs.google.com/spreadsheets/d/e/2PACX-1vRE1NoYtNw1FmjRQ8wcdPkcE0Ryeoc2mfFkCQPHjzwL5CpwNKkLXnBl_F7c0LZjrtbLtRLH55ZVi6gQ/pub?gid=0&si…
処理 ショートカット 現在地から 都道府県名 市区町村名 住所 緯度 経度 を取得してwebhookでスプレッドシートにデータを送信 スプレッドシート webhookから送られてきたデータを最終行に追加 Githubにプログラム実行のwebhookを送信 Github webhookを受信す…
chokkan.github.io
ensekitt.hatenablog.com zenn.dev !pip install pdfplumber """再起動""" !apt update !wget "https://www.city.kumamoto.jp/common/UploadFileDsp.aspx?c_id=5&id=4645&sub_id=18&flid=239935" -O data.pdf !apt install libmagickwand-dev ghostscript # …
bufferings.hatenablog.com www.lifehacker.jp
github.com !pip install pdfplumber !apt install libmagickwand-dev ghostscript !wget "https://www.city.kumamoto.jp/common/UploadFileDsp.aspx?c_id=5&id=4638&sub_id=20&flid=239879" -O data.pdf import io import re import pandas as pd import pd…
import datetime import time import pandas as pd import requests from bs4 import BeautifulSoup from tqdm.notebook import tqdm headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko" } url = "https:/…
!pip install pdfplumber !apt install libmagickwand-dev ghostscript !wget "https://www.city.kumamoto.jp/common/UploadFileDsp.aspx?c_id=5&id=4638&sub_id=20&flid=239879" -O data.pdf import re import pandas as pd import pdfplumber tate = [0, 3…
qiita.com !pip install camelot !pip install pikepdf import camelot import pandas as pd import pikepdf # 保護解除 with pikepdf.open("data.pdf") as pdf: pdf.save("output.pdf") # strip_textで空白改行を除去 tables = camelot.read_pdf("output.pd…
stackoverflow.com !pip install pikepdf import pikepdf with pikepdf.open("data.pdf") as pdf: pdf.save("output.pdf")
# 空ファイル作成 ssh sudo raspi-config sudo apt install avahi-daemon sudo systemctl enable avahi-daemon sudo systemctl start avahi-daemon # ユーザー名追加 sudo adduser imabari # sudoに追加 sudo gpasswd -a imabari sudo #リブート sudo reboot…
oku.edu.mie-u.ac.jp 練習でplotlyでグラフ化してみた import pandas as pd pd.options.plotting.backend = "plotly" df = pd.read_csv( "https://oku.edu.mie-u.ac.jp/~okumura/python/data/height.csv", index_col=0 ) fig = df[["男17歳", "男16歳", "男1…
# スクレイピング import datetime import requests from bs4 import BeautifulSoup headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko" } def fetch_soup(url, parser="html.parser"): r = requests.get(…
soramame.env.go.jp import pathlib import pandas as pd pd.options.plotting.backend = "plotly" df = pd.read_csv( "https://soramame.env.go.jp/data/sokutei/NoudoTime/38201030/7day.csv", dtype={ "SO2": float, "NO": float, "NO2": float, "NOX": f…
import cv2 import numpy as np from google.colab.patches import cv2_imshow from PIL import Image from staticmap import StaticMap def get_map( url, lat=33.84167, lng=132.76611, width=2000, height=2000, zoom=12, fn="map.png" ): smap = StaticM…
qiita.com import cv2 import numpy as np from google.colab.patches import cv2_imshow from PIL import Image from staticmap import StaticMap def get_map( url, lat=33.84167, lng=132.76611, width=2000, height=2000, zoom=12, fn="map.png" ): smap…