apk backup

adb shell pm list packages | grep 280 package:com.tobila.android_280blocker adb shell pm list packages -f | grep com.tobila.android_280blocker package:/data/app/~~2sF059lgcDUi7svMi45fKQ==/com.tobila.android_280blocker-yTvkjAUFBCV4ZV8Zd6wFo…

カナダ

ドコモのパケットパック海外オプション 海外Wi-Fiレンタル SIM切替 ドコモのパケットパック海外オプション https://www.docomo.ne.jp/service/world/roaming/ppko/ 電 話 ○ 発信1分140円、着信1分175円 SMS ○ 1通100円 ネット ○ 日本で契約しているプラン…

VPN

internet.watch.impress.co.jp \HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\PolicyAgent そして、新規に値を作成します。右クリックから「新規」ー「DWORD」で「AssumeUDPEncapsulationContextOnSendRule」という名前を設定し、値のデータとして…

スプレッドシートでシートを縦結合

=QUERY({'今治市'!B2:O;'新居浜市'!B2:O;'西条市'!B2:O;'四国中央市'!B2:O;'上島町'!B2:O;'松山市'!B2:O;'伊予市'!B2:O;'東温市'!B2:O;'久万高原町'!B2:O;'松前町'!B2:O;'砥部町'!B2:O;'宇和島市'!B2:O;'八幡浜市'!B2:O;'大洲市'!B2:O;'西予市'!B2:O;'内子町…

高等学校情報科「情報Ⅱ」教員研修用教材(本編)

www.mext.go.jp 第3章 情報とデータサイエンス 前半 大量のデータの収集と整理・整形 演習2 import requests from bs4 import BeautifulSoup from urllib.parse import urljoin url = "https://www.mext.go.jp/b_menu/news/index.html" r = requests.get(ur…

逆ジオコーディング

www.info-proto.com pip install jageocoder python -m jageocoder install-dictionary import jageocoder jageocoder.init() jageocoder.reverse(135.51436414374191, 34.543593627388454) jageocoder.reverse(135.51436414374191, 34.543593627388454, lev…

HGWのIPoE解除

support.so-net.ne.jp support.so-net.ne.jp youtm-log.com

フィッシングサイト報告

https://sagicheck.jp/ safebrowsing.google.com www.antiphishing.jp www.saferinternet.or.jp

pdfbox version ソート

stackoverflow.com import requests from bs4 import BeautifulSoup from packaging.version import parse as parseVersion r = requests.get("https://archive.apache.org/dist/pdfbox/") r.raise_for_status() soup = BeautifulSoup(r.content, "html.pars…

CAMPFIREの支援者をスクレイピング

import time from urllib.parse import urljoin import requests from bs4 import BeautifulSoup # プロジェクト p_number = 12345 # スクレイピング url = f"https://camp-fire.jp/projects/{p_number}/backers" link = url result = [] while True: print(…

献血バス運行スケジュールをスクレイピング

import pandas as pd import requests from bs4 import BeautifulSoup url = "https://www.bs.jrc.or.jp/csk/ehime/place/m1_03_index.html" r = requests.get(url) r.raise_for_status() soup = BeautifulSoup(r.content, "html.parser") dfs = [] for i in…

XPATHの親指定

qiita.com "//a[span/span[contains(text(), '次へ')]]" "//a[span[span[contains(text(), '次へ')]]]" "//a/span/span[contains(text(), '次へ')]/../.." "//a/span/span[contains(text(), '次へ')]/parent::*/parent::*" "//a/span/span[contains(text(), …

golang

wget https://go.dev/dl/go1.19.4.linux-amd64.tar.gz sudo tar -C /usr/local -xzf go1.19.4.linux-amd64.tar.gz echo 'export PATH=$PATH:/usr/local/go/bin' >> $HOME/.profile echo 'export PATH="$HOME/go/bin:$PATH"' >> $HOME/.profile # 設定の再読…

awk print サンプル

区切らず出力したい場合はそれでいいと思います。awkのprint文でカンマ区切りした所は、awkの特殊変数OFSで区切って出力します。OFSのデフォルトはスペースなので、OFSを変更すると区切り文字が変更出来ますね。— ぱぴろんちゃん (@papiron) 2022年12月13日 …

twty

wget https://go.dev/dl/go1.19.4.linux-amd64.tar.gz sudo tar -C /usr/local -xzf go1.19.4.linux-amd64.tar.gz echo 'export PATH=$PATH:/usr/local/go/bin' >> $HOME/.profile 設定の再読み込み source $HOME/.profile go install github.com/mattn/twty…

救急病院のページを取得(csrf)

curl -c cookie01.txt -s -L -X GET "https://www.qq.pref.ehime.jp/qq38/WP0805/RP080501BL" | hxnormalize -x > qq.html CSRF=$(cat qq.html | hxselect 'input[name="_csrf"]::attr(value)' | cut -d= -f2 | tr -d '"') URL=$(cat qq.html | hxselect 'fo…

ワンライナーで玉川ダムの貯水率をCSVに変換

なるほど、ツイートするためのデータとしては最新行だけで良いんですね。一応awkで日付を保管してCSVにするやり方の例です。 pic.twitter.com/KFApx0R4yL— ぱぴろんちゃん (@papiron) 2022年12月9日 apt install libxml2-utils apt install html-xml-utils a…

自動車のリコール・不具合情報

import time import urllib.parse import pandas as pd import requests from bs4 import BeautifulSoup def fetch_soup(url, parser="html.parser"): r = requests.get(url, headers=headers) r.raise_for_status() soup = BeautifulSoup(r.content, parser…

近鉄

import pickle import backoff import requests from bs4 import BeautifulSoup url = "https://www.kintetsu.jp/unkou/unkou.html" headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko" } p = pathlib.Pat…

android機種変更

Googleアカウントのパスワード確認(旧端末だと再設定可能かも) LINEのメッセージをバックアップ LINEのメールアドレスを設定 LINEのパスワード確認 +メッセージのバックアップ dアカウントのIDとパスワード確認 dアプリ関係はつかわない milktea.skr.jp…

救急病院202211

import datetime import pathlib from urllib.parse import urljoin import pandas as pd import requests from bs4 import BeautifulSoup base_url = "http://www.qq.pref.ehime.jp/qq38/WP0805/RP080501BL" payload = { "_blockCd": "", "forward_next": "…

救急病院ツイート用

import datetime import os import re import time from urllib.parse import urljoin import requests import tweepy from bs4 import BeautifulSoup consumer_key = os.environ["CONSUMER_KEY"] consumer_secret = os.environ["CONSUMER_SECRET"] access_t…

pdftohtmlでワンライナーxml変換

wget "https://www.mlit.go.jp/totikensangyo/const/content/001520358.pdf" n=`pdfinfo 001520358.pdf | awk '/Pages/{print $2}'` i=0; c=500; while [ $i -lt $n ]; do b=$i; i=$(($i+$c)); if [ $i -ge $n ]; then i=$n; fi; pdftohtml -f $(($b+1)) -l …

TEI XML

yuranhiko.hatenablog.com blog.imind.jp orangain.hatenablog.com lxml.de from lxml import etree import pathlib parser = etree.XMLParser(recover=True) tree = etree.parse(p, parser) root = tree.getroot() # 名前空間マッピング確認 root.nsmap # …

pipx pdm

pypa.github.io zenn.dev zenn.dev qiita.com sudo apt install pipx pipx ensurepath pipx install pdm pdm config --global install.cache True mkdir jupyter cd jupyter pdm init pdm add jupyterlab jupyterlab-language-pack-ja-JP pdm add pandas ope…

文字起し

internet.watch.impress.co.jp dev.classmethod.jp github.com

シェイクスピアのTEI_XMLコーパス

digitalnagasaki.hatenablog.com github.com

漱石書簡から人物登場頻度と地名登場頻度

curl -O 'https://www.dhii.jp/dh/tei/soseki_letter_19000908.xml' curl -O 'https://www.dhii.jp/dh/tei/soseki_letter_19001008.xml' curl -O 'https://www.dhii.jp/dh/tei/soseki_letter_19001022.xml' import pathlib from lxml import etree ns = {"te…

現代日本語訳仏典の人名と地名の登場回数

www.dhii.jp !curl -O "https://21dzk.l.u-tokyo.ac.jp/SAT2018/JT0353b.xml" !curl -O "https://21dzk.l.u-tokyo.ac.jp/SAT2018/JT2046b.xml" !curl -O "https://21dzk.l.u-tokyo.ac.jp/SAT2018/JT2047b.xml" !curl -O "https://21dzk.l.u-tokyo.ac.jp/SAT2…

TEI/XMLファイルから抜き出した地理情報を地図上にマッピング(lxmlで抽出)

digitalnagasaki.hatenablog.com curl -O "https://www.dhii.jp/dh/tei/soseki_letter_19000908.xml" curl -O "https://www.dhii.jp/dh/tei/soseki_letter_19001008.xml" curl -O "https://www.dhii.jp/dh/tei/soseki_letter_19001022.xml" import pathlib i…