爪切り G-1200 匠の技 感想
2020年10月07日 21時27分01秒
薬局にも置いてる爪切り G-1200 匠の技
名前的に凄い切れそうな感じ。
気になったので購入。
使った感じとしては、
・普通に切れる。あまり力を入れなくてもスッと切れる。
・爪飛び防止のキャッチャーが外れない。
箱に「外れにくい場合は・・・」と外すコツの記載があるが「外れにくい」ではなく「外れない」
もう外すのは諦めて、その内壊して外そうと決心したくらい外れない。
・爪飛び防止のキャッチャーケースが邪魔で切りにくい
↓こんな感じで切る人は問題ないと思う
私は指を曲げて、手のひらを顔に向けて切るスタイル。
このスタイルの場合、キャッチャーケースが邪魔で、刃と刃の隙間から、刃が爪にどんな感じにフィットしてるか確認が出来ない。
よって切りにくい。
1回使って、もう使うのやめようかなって感じです。
名前的に凄い切れそうな感じ。
気になったので購入。
使った感じとしては、
・普通に切れる。あまり力を入れなくてもスッと切れる。
・爪飛び防止のキャッチャーが外れない。
箱に「外れにくい場合は・・・」と外すコツの記載があるが「外れにくい」ではなく「外れない」
もう外すのは諦めて、その内壊して外そうと決心したくらい外れない。
・爪飛び防止のキャッチャーケースが邪魔で切りにくい
↓こんな感じで切る人は問題ないと思う
私は指を曲げて、手のひらを顔に向けて切るスタイル。
このスタイルの場合、キャッチャーケースが邪魔で、刃と刃の隙間から、刃が爪にどんな感じにフィットしてるか確認が出来ない。
よって切りにくい。
1回使って、もう使うのやめようかなって感じです。
PR
【Python】複数のMIMEファイルから添付ファイルを取得して保存
2020年10月04日 00時14分06秒
特定のフォルダに複数のMIMEファイルを保存。 そのフォルダ内にある全てのMIMEから添付ファイルだけ取得したかったので、Pythonでツールを作成。
import glob from email.parser import Parser # MIME一覧のパス、ファイル名を指定 files = glob.glob('パス/ファイル名') for file in files: with open(file, 'r', encoding='iso-8859-1') as f_mime: mime_str = f_mime.read() mime_obj = Parser().parsestr(mime_str) for part in mime_obj.walk(): filename = part.get_filename() if filename: content = part.get_payload(decode=True) with open('パス' + filename, 'wb') as fout: fout.write(content)
【pyspark】DataFrameのレコード毎に処理を行う。UDF(User Defined Function)
2020年09月21日 00時10分07秒
DataFrameのレコード毎に特定の処理を行いたい場合、UDF(User Defined Function)の例。
from pyspark.sql.functions import udf
from pyspark.sql.functions import udf
from pyspark.sql import SparkSession
from pyspark.sql.functions import struct, lit
from pyspark.sql.types import StringType
def f(row):
str = f"{row['name']}は{row['age']}歳です"
return str
udf_func = udf(f)
spark = SparkSession.builder.getOrCreate()
d = [
{'name': 'Tanaka', 'age': 10},
{'name': 'Suzuki', 'age': 15},
{'name': 'Satou', 'age': 19}
]
df = spark.createDataFrame(d)
result_df = df.withColumn('udf_result', udf_func(struct(*df.schema.names)))
result_df.show(truncate=False)
+---+------+-------------------+
|age|name |udf_result |
+---+------+-------------------+
|10 |Tanaka|Tanakaは10歳です|
|15 |Suzuki|Suzukiは15歳です |
|19 |Satou |Satouは19歳です |
+---+------+-------------------+
pysparkでCSVを読み込んでDataFrameを作成
2020年09月13日 02時54分21秒
【読み込むCSV】
Name,Age,TestDate
tanaka,10,2020-08-01 01:00:00
suzuki,13,2020-08-02 02:00:00
satou,15,2020-08-03 03:00:00
【pythonモジュール】
from pyspark.sql import SparkSession【pythonモジュール】
from pyspark.sql.types import IntegerType, StructField, StructType, StringType, TimestampType
schema = StructType(
[
StructField('Name', StringType(), False),
StructField('Age', IntegerType(), False),
StructField('TestDate', TimestampType(), False)
]
)
spark = SparkSession.builder.getOrCreate()
df = spark.read.format(
'csv'
).option(
'timestampFormat', 'yyyy-MM-dd HH:mm:ss'
).load(
'/tmp/test.csv', schema=schema
)
df.show()
+-------+----+-----------------------+
| Name| Age| TestDate|
+-------+----+-----------------------+
|tanaka | 10|2020-08-01 01:00:00|
|suzuki | 13|2020-08-02 02:00:00|
| satou | 15|2020-08-03 03:00:00|
+------+----+------------------------+
df.schema
StructType(List(StructField(Name,StringType,true),StructField(Age,IntegerType,true),StructField(TestDate,TimestampType,true)))
【schemaを指定しない場合】
【schemaを指定しない場合】
schemaを指定せずにCSVを読み込むことも可能。
むしろschemaの定義とCSVの値が一致しなければnullになってしまうため、指定しない方が楽。
が、schemaを指定しない場合は全カラムがStringとして扱われてしまう。
むしろschemaの定義とCSVの値が一致しなければnullになってしまうため、指定しない方が楽。
が、schemaを指定しない場合は全カラムがStringとして扱われてしまう。
df = spark.read.format(
'csv'
).load(
'/tmp/test.csv'
)
df.schema
StructType(List(StructField(_c0,StringType,true),StructField(_c1,StringType,true),StructField(_c2,StringType,true)))
手越祐也 母子家庭に弁当無償で配達 本当の目的は・・・
2020年06月21日 16時26分46秒
元NEWS・手越 ボランティアは継続 母子家庭に弁当無償で配達
https://news.yahoo.co.jp/articles/df6bc219fee32d11514d872a5ce32d504f0e1be6
なんで「母子」限定なんだろう。
女好きの手越が母子限定かぁ。
手越祐也のイメージからして、簡単に落とせそうな綺麗な人を狙って・・・としか思えないんだよなぁ。
https://news.yahoo.co.jp/articles/df6bc219fee32d11514d872a5ce32d504f0e1be6
なんで「母子」限定なんだろう。
女好きの手越が母子限定かぁ。
手越祐也のイメージからして、簡単に落とせそうな綺麗な人を狙って・・・としか思えないんだよなぁ。