日々の記録

ほどよく書いてきます。

2020年8月北海道Day1

2020年08月26日 22時06分52秒 | 旅行

Day1

飛行機に乗ると雲を高い位置から見られるのが面白い。空がより青く(暗く)見えるのも興味深い。

こちらは佐渡ヶ島

旭川空港で車を借りて留萌駅近くまで運転。

長い長い直線道路が多いので、パトカーのネズミ取りは比較的多いのだろうか。どうやらレーザー式のネズミ取りのようだ。

とりあえず、セイコーマートでソフトカツゲンを買って飲みながら移動。特に移動以外何をするでもなく運転。

借りた車はトヨタ ルーミー。1L 3気筒の1KRである。自然吸気エンジン。

ハンドリングは困ったことに、初日は大変ストレスを感じるものであった。微妙なハンドルの応答に車両がついてこないというか、遅いというか、なんとも言えない感覚である。後日気がつくのだが、微修正はしないほうがこの車はいい。フラッと来そうだとか、そういう情報はなんとなく感じるけど、ハンドル操作はしない。これが一番。

 

夜は留萌にて、夕飯は田吾作にて。

 

いつも写真を取らないけど、セイコーマートは個人的に好きです。

余談:

止まった宿、エアコンの効きが悪いなとおもって見たら・・・

これはこれは。掃除しましたとも。

 

 

Day2 留萌から礼文島まで出かけるが、途中で寄り道を。

初山別(しょさんべつ)天文台というものがあったがやってなかった。この周辺はキャンプ場があるが、人もまばらであった。

オトンルイ風力発電は整然と並ぶ風車がなかなかいい景色だった。

発電電力は12.5m/sの風速にて、16MW。すごいな。最大出力21MWとあるので、結構いい感じの発電だったのでしょう。曇天でも発電できるのは風力の魅力だと思います。

BMWがいたので、ぱちり。いいなー。

サロベツ湿はなんとなく寄った。花がきれいと聞いていたがシーズンが少しずれていたので、花々はあまり楽しめなかった。

泥炭採掘船が残っていました。え?ここに船?って思うけど、泥炭採掘すると池になるので浮くっぽい。今は完全にスタックしているんじゃないかと思います。

湿原の展望台は下が池になっていた。除くと暗く、どこまでも沈みそうな不安を煽るような

泥炭を何に使っていたのかと気になったが、土壌改質につかったらしい。なるほど開拓地だからか。

寝てるカタツムリ。

ちょっとしたお花(キツリフネ)。

いよいよ稚内が近づいてくる。看板にはロシア語が書いてあるがアルファベットすら拾えない。

稚内には自衛隊基地があります。

ノシャップ岬ではBMW K1600GTL。でかかったな。でも北海道に合うな〜〜。未舗装だとGSのほうが良さそうだけど、アスファルトばかりだったらこれもいいなー。

ちゃんとノシャップ岬まで行ってます。霞んでいますが利尻富士です。

ヤマハ、スーパーテレネ。結構キャスター寝てる印象。夜間走行が多いのか当該車両にはワークライトがついてました。

 

Day2の続きですが、目的地は稚内からアクセスできる礼文島、利尻島。

フェリーに乗ります。

フェリー乗り場からは海上保安庁の船舶が見えます。PL11 りしり。速力25ノット以上。


Googleマップによると通行止めマークが連発しているが、普通に通れるので問題ない。
通行可能ってフラグを立ててきたつもりだが、まだ通行止めマークが多数出現。問題なく走行できました。

地図だけではなく、道中の写真もあるといいな。ちょっと整理が追いつかない。

コメント (1)
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

2020年8月北海道

2020年08月17日 22時23分54秒 | 旅行

北海道に行ってきたので記録を残しておく。

旅の概要:旭川空港から、北の離島、礼文島と利尻島をめぐり、宗谷岬を見て、紋別へぬけ、旭川に戻るルートにて移動。

1日目:移動:旭川空港到着からワールドネットレンタカーで車を借り、留萌のホテルニューホワイトに移動し、宿泊
2日目:礼文島:留萌から稚内経由で、礼文島へ渡り、礼文島北にあるホテル礼文荘に宿泊
3日目:礼文島:スコトン岬、ゴロタ岬展望台(徒歩)、澄海(すかい)岬展望台、金田ノ岬、礼文島空港(廃空港?)を散策、桃台猫台展望台へ行き、桃岩展望台へ。ペンションうーにーに宿泊。
4日目:礼文島・利尻島:ホテル礼文荘付近、アザラシが見える海岸にてアザラシ見物。北のカナリアパークに立ち寄り、フェリーで利尻島へ。
反時計回りに回る:米田商店にてホタテの刺し身、カムイテラス冷やかし、仙法志御崎公園でアザラシに餌付け?、メヌウショロ沼、オタトマリ沼、姫沼を見て、旅館雪国で一泊
5日目:利尻島・宗谷岬:時計回りに回る、オタトマリ沼を沼浦展望台からのぞみ、人面岩、ラーメン味楽、沓形(くつがた)岬、利尻山見返り公園展望台、富士野園地、ペシ岬山頂、フェリー移動
稚内は、稚内公園、稚内駅、稚内港北防波堤ドーム、海上保安庁の船舶を見てから宗谷岬へ。宗谷岬は民宿宗谷岬で一泊。夜の宗谷岬は独り占めかと思いきや人がちらほら。
6日目:宗谷岬、旧海軍望楼、宗谷丘陵、白い貝殻の道、最北端給油所で給油、道の駅さつふる、クッチャロ湖、道の駅マリーンアイランド岡島、道の駅おうむ、紋別のガリンコ号、旭川市へ。夜はホテルウイングインターナショナル旭川(旭川駅前、イオン目の前)へ
7日目:旭岳(ロープウェイで登って散策)、羽衣の滝、大雪旭岳源水、七色噴水(午前中しか色づかないよ!)、レンタカーを返却して旭川空港へ。

詳細旅程は追記します。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Ubuntuで毎日スクリプトを実行する

2020年08月08日 20時36分33秒 | プログラム

ノートパソコンをUbuntuにしたので、Ubuntuでいろいろやってみる。ノートPCのほうが消費電力少なそうなので、常時運用にはこっちのほうがいいのか、なんて思っている。

簡単なスクリプトなら、Raspberry Piで十分だけども持ってないので。

# -*- coding: utf-8 -*-
"""
Spyder Editor
 
This is a temporary script file.
"""
import urllib3
import datetime
import os
 
diff_day = 1 #if yester day, 1
 
root_url = "http://www.jma.go.jp/jp/radnowc/imgs/radar/"
area_codes = ["000","201","202","203","204","205","206","207","208","209","210","211","212","213","214","215","216","217","218","219"]
hour_list = ["00","01","02","03","04","05","06","07","08","09","10","11","12","13","14","15","16","17","18","19","20","21","22","23"]
min_list = ["00","05","10","15","20","25","30","35","40","45","50","55"]
 
 
def download(url, file_name):
    connection_pool = urllib3.PoolManager()
    resp = connection_pool.request('GET', url)
    f = open(file_name,'wb')
    f.write(resp.data)
    f.close
    resp.release_conn()
 
now = datetime.date.today().strftime("%Y%m%d")
yesterday = datetime.date.today() - datetime.timedelta(days=diff_day)
 
print(yesterday.strftime("%Y%m%d"))
i=0
 
download("http://www.jma.go.jp/jp/radnowc/imgs/radar/210/202008081425-00.png","testtest.png")
 
for areas in area_codes:
    new_path =  areas +"/" + yesterday.strftime("%m%d")
    if not os.path.isdir(new_path):
        print(new_path)
        os.makedirs(new_path)
 
for hours in hour_list:
    for mins in min_list:
        i += 1;
        for areas in area_codes:
            url = root_url +  areas +"/" + yesterday.strftime("%Y%m%d")+ hours + mins + "-00.png"
            print(url)
            print(areas +"/" + yesterday.strftime("%m%d") + "/{:04d}".format(i))
            download(url, areas +"/" + yesterday.strftime("%m%d") + "/{:04d}".format(i)+".png")
 

上記のコードを作って保存しておく。とりあえず名前はradar.pyとしておく。

で、定期的に
python radar.py
を実行できればよい。ただ、上記で実行すると、ルートフォルダ以下に作ってしまうので、次のようにディレクトリを移動してから実施というようなプログラムが必要。次の内容をradar.bhとでもしておいて

#! /bin/bash
cd /home/username/radar
python3 radar.py

hoge

crontab -eで

1 0 * * * radar.bh

などと登録するとよい。Gnu nanoで編集するとき、^Xなどの表示があるが、何だろうとおもったら、^XはEsc Esc xの順番にキーボードを叩けばいいらしい。文字入力と制御を切り替えるエスケープがEsc Escなんだろう、きっと。

 

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

PythonでWebのデータを集める

2020年08月08日 17時11分57秒 | プログラム

気象衛星の画像を定期的に集めるのにいい方法がないかと考え、pythonでコードを作り、一日一回動かす、みたいなことを考えた。

でかけたときでも勝手に回収できるようにlinuxでも動かせるようにしておくといいかも。

以下のコードで一日分のデータを集められる。日付が変わった頃合いにこれを動かせば前日分のデータを集めきれる。

# -*- coding: utf-8 -*-
"""
Created on Sat Aug  8 14:10:25 2020
 
@author: m
"""
root_url = "http://www.jma.go.jp/jp/radnowc/imgs/radar/"
area_codes = ["000","201","202","203","204","205","206","207","208","209","210","211","212","213","214","215","216","217","218","219"]
hour_list = ["00","01","02","03","04","05","06","07","08","09","10","11","12","13","14","15","16","17","18","19","20","21","22","23"]
min_list = ["00","05","10","15","20","25","30","35","40","45","50","55"]
 
import urllib3
import datetime
import os
 
def download(url, file_name):
    connection_pool = urllib3.PoolManager()
    resp = connection_pool.request('GET', url)
    f = open(file_name,'wb')
    f.write(resp.data)
    f.close
    resp.release_conn()
 
now = datetime.date.today().strftime("%Y%m%d")
yesterday = datetime.date.today() - datetime.timedelta(days=1)
 
print(yesterday.strftime("%Y%m%d"))
i=0
 
download("http://www.jma.go.jp/jp/radnowc/imgs/radar/210/202008081425-00.png","testtest.png")
 
for areas in area_codes:
    new_path =  areas +"\\" + yesterday.strftime("%m%d")
    if not os.path.isdir(new_path):
        print(new_path)
        os.mkdir(new_path)
 
for hours in hour_list:
    for mins in min_list:
        i += 1;
        for areas in area_codes:
            url = root_url +  areas +"/" + yesterday.strftime("%Y%m%d")+ hours + mins + "-00.png"
            print(url)
            print(areas +"\\" + yesterday.strftime("%m%d") + "\\{:04d}".format(i))
            download(url, areas +"\\" + yesterday.strftime("%m%d") + "\\{:04d}".format(i)+".png")
 
 
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする