Masaru Shirasuna
新たに学んだことから、日常のメモ、古い記憶の掘り返しまで、雑多に。
(無理くり1行に収めています)
(コードは、自分のスクリプトから抜粋。汎用性はありません)
0401
・Friston先生、フリー本。ローレンツアトラクタ。
・「クイズ」の起源、アイルランドの劇場人ではないのかも
・ドラセナ (ドラセナ・シナバリ)、竜血樹、ソコトラ島
・「Wise and Mad Crowds – Mehdi Moussaïd at Summer Institute 2018」
0402
・researchmapでmiscにぶち込まれたら、編集→「選択した行を」「論文へ移動する」
・写真、モノクロ化はフォトの「調整」→「色」を左端に。サイズ変更はIMG
・
・R、facet_wrap や facet_gridのスケールの変え方↓
facet_grid(TestDifficulty ~ .,
scales="free_y") + # y軸のみフリースケール (各パネルに応じてスケールが変わる)
facet_wrap(. ~ TestDifficulty,
scales = "free", # x軸もy軸もフリースケール
strip.position = "left",
ncol = 1) +
・Rの色の値、alphaは小さい方が薄いけど、"gray_"は大きい方が薄い
0403
・「(アルテ/ノイエ)ピナコテーク、ソフィア王妃芸術センター」「ビッグクランチ」
・R、対角線の入れ方(ablineで、slopeとinterceptをaesの中に入れたら回った)
g <- ggplot(data = uuuuuuuuu, #
aes(x = uuuuuuuuu[, X_AXIS_DATA],
y = uuuuuuuuu[, Y_AXIS_DATA],
colour = factor(uuuuuuuuu[, COLOR_COLNAME]),
shape = factor(uuuuuuuuu[, SHAPE_COLNAME])
)
)
g +
geom_abline(
mapping = aes(slope = 1,
intercept = 0),
size = 0.3,
color = "gray40"
) +
・Rのエラー「置換はx列ですが、データはy列です」、おそらくxは右辺、yは左辺
0404
・これとこれ、似ている? (世代を超えたシミュレーション的な) (読めない)
・G検定のGは「general」のG (3月・7月・11月)、クイズ。
(追記: 「教養知識としてのAI」)
・フードロス(ろすのん)、SDGs、ダイナミックプライシングPros/Cons
(SDGs追記)
0405
・「空っぽの箱」への代入、データフレームにはデータフレームを(無難)
allResults <- data.frame(iterIdx = rep(-99, ITER * GROUPSIZE),
LearningDifficulty = rep(-99, ITER * GROUPSIZE),
TestDifficulty = rep(-99, ITER * GROUPSIZE),
groupSize = rep(-99, ITER * GROUPSIZE),
accuracyLearn = rep(-99, ITER * GROUPSIZE),
accuracyTest = rep(-99, ITER * GROUPSIZE)
)
## (中略) #################
## recording the result in the current high members
tempResult <- NULL;
tempResult <- data.frame(iterIdx = rep(iterN,
times = length(c(sort(subIdxHigh)))),
LearningDifficulty = rep(LEARNING_DIFFICULTY,
times = length(c(sort(subIdxHigh)))),
TestDifficulty = rep(TEST_DIFFICULTY,
times = length(c(sort(subIdxHigh)))),
groupSize = rep(GROUPSIZE,
times = length(c(sort(subIdxHigh))))
accuracyLearn = rep(mean(vecCorrectFalseLearn),
times = length(c(sort(subIdxHigh)))),
accuracyTest = rep(mean(vecCorrectFalseTest),
times = length(c(sort(subIdxHigh))))
)
## integrating so-far iterating results......
allResults[((iterN-1)*GROUPSIZE+1):(GROUPSIZE*iterN), ] <- tempResult;
・シミュレーション時短、いかにmatrixと組み込み関数に落とし込めるか。wish matrix
・分類、適合率(「実際P」分のP)、再現率(「予測がP」分のP)、F値(両者の調和平均)。
・NNの活性化、シグモイドを重ねると勾配消失。この改善策がReLU。
0406
・interactionで「形も色も変えて、凡例はまとめる」なら、labelを同じにすればいい
labs(
x = "Question Type",
y = "Accuracy",
color = "Confidence in the Group",
shape = "Confidence in the Group"
) +
・geom_lineでのinteractionプロット、aesの中は「group」
geom_line(aes(colour = factor(highestmixedSummarized[, "proportion"]),
group = factor(highestmixedSummarized[, "proportion"])
),
size = 1.4
) +
・あの手の豚バラ肉、レンジだけでも行けるっぽい(!)
・元は囚人たちの退屈しのぎ、スカッシュ。
0407
・「どれなら行けそうか」を個々人に選ばせて、集団を作るのがいい
(追記: 集合知の、「proportion correct」と「proportion better」という指標)
(追記: 不確実性、少ない学習数ならヒューリスティックが強い)
・行動データだけでなくこういう発想(AIで分子から好みを予測)がやばい
・鞍点(あんてん): ある次元から見ると極大だが、別の次元から見ると極小になる点
・大霊界、丹波哲郎さん(誕生日)
0408
・2012年に画像認識コンペ(ILSVRC)で優勝したモデルがAlexNet。
・豪のカーペンタリア湾付近、モーニンググローリー
・『タイタニック』、ディカプリオ。
・強い/弱い: AIが心や知性を持つか、特化/汎用: AIが広範な課題を処理できるか
(追記: サールは「強いAIは不可能」派)
0409
・ナッジを、DDMの観点から統一的に説明。「テイラーメイド」っぽい話。
・Doubt & Trust for AI? (信頼性によらず結構trustするっぽい) (←この性差)
・viz.: すなわち(videlicet)、id est。「e.g.」は「exempli gratia」
0410
・online choice architecture (OCA) by the UK Competition and Markets Authority.
・ヒストグラムを手っ取り早く(ラフで)見るやつ。break = seq(始点, 終点, 刻み幅)
hist(sort(highestgs15groupUniqueLearningrandomRct[highestgs15groupUniqueLearningrandomRct[, "LearnQsN"]==10, "accuracyTest"], decreasing = TRUE) - sort(mixedconfgs15groupUniqueLearningrandomRct[mixedconfgs15groupUniqueLearningrandomRct[, "LearnQsN"]==10, "accuracyTest"], decreasing = TRUE), breaks = seq(-1,1,0.1), xlim = c(-1,1))
・段ボールの回収、ない。手袋、ない。
・「PROGの強化書」
0411
・回帰、分散分析、ロジスティックとかそのへんのモデルは一般化線形モデル。
・リンク関数のイメージがつきにくかったのは、回帰や分散分析では恒等関数だからか
・R、facetで境界線(軸)を入れるやつ。lemonパッケージ。
facet_rep_wrap(~ groupCategory,
ncol = 3,
repeat.tick.labels = TRUE) +
・R、ggplotでグラフに文字を入れるやつ(xy座標の基準はおそらく「左上」)
annotate("text",
x = -0.35,
y = 950,
size = 10,
label = "<-- Test Worse") +
0412
・R、ファイルへのパスの中に日本語があると「Import Dataset」は使えなさそう
・密度関数の「バンド幅」って、ヒストグラムのビンのようなものか
・アンサンブル学習、「集まれば、強くなる」。集合知の発想
0413
・「高い順に」in the order of descending priorities
・「Western, Educated, Industrialized, Rich, Democratic (WEIRD) sample」
・(人が教えなくても)AIが自力で猫を認知。クイズを覚える発想っぽい
・特定原材料、7品目
0414
・条件に合う行に追加するやつ、ifelse()を使えばfor文不要説
abababababab <- ifelse(mixedconfgs15groupUniqueLearningrandom[,"accuracyLearn"]
- mixedconfgs15groupUniqueLearningrandom[,"accuracyTest"] > 0,
"Test Worse",
"Test Better")
mixedconfgs15groupUniqueLearningrandomAdd <- mixedconfgs15groupUniqueLearningrandom
mixedconfgs15groupUniqueLearningrandomAdd[,"testResult"] <- abababababab
・geom_jitterではwidth=とheight=、geom_pointではposition = position_dodge(width = )
・まさかのサブタイトル: lab(subtitle = "...")、theme(plot.subtitle=element_text(size=))
・YOLO (You Only Look Once) (位置特定とクラス識別を同時に行う1段階モデル)
0415
・Nuance Power PDF (プロパティ情報を消すやつ)
・meltとtapplyは使いよう (「2列ペア」の個数を数える)
LearnTestCols <- data.frame(accuracyLearn = mixedconfgs15groupUniqueLearningrandomAdd10[,"accuracyLearn"],
accuracyTest = mixedconfgs15groupUniqueLearningrandomAdd10[,"accuracyTest"])
na.omit(melt(
tapply(mixedconfgs15groupUniqueLearningrandomAdd1[,"LearnQsN"],
LearnTestCols,
length)
))
・高価値の選択は速く正確だけれど、それに注意を促すと慎重になる。
0416
・「Music Macro Language (MML)」「FM音源 (frequency modulation)」
・「望外(ぼうがい)の喜び」
・ナイアガラの滝、ゴート島、ルナ島
0417
・AI変遷:「推論と探索→といぷろ」「知識→機械翻訳/Frame/SymGro」「MLとDL」
・R、table関数(集計表作成)。桁数表示option(digits=…)
・キュートアグレッション、出典 Psychological Science (初出は2013年の書籍)
0418
・ggplot、「一律色変え」ならaesの外、「軸(グループなど)にあわせて」ならaesの中
・「普通預金」「通常貯金」
・「ソフィージェルマン素数」「安全素数」
・「水に浮かぶ惑星は、土星 (平均密度が最小)」(密度最大は地球)
0419
・二項分布の乱数「dbinom(x = 成功回数, size = 試行回数, prob = 成功確率))」
・平均0、SD1の正規分布からn個の乱数を生成「rnorm(n = 10000, mean = 0, sd = 1)」
(追記: 乱数固定「set.seed()」の引数は、とりあえずなんでもいい)
・ストーリーてんぷれ: 「これまでの成果→しかし→そこで→その結果」
・「Intel 4004 開発者の一人」
0420
・従属変数2値、「family = binomial(link = "logit"),」も「family = "binomial",」も結果は同じ
(trials()は「(二項分布での)試行数」を明示。各行1問なら1でいい(1/1か0/1の意味になる))
brm(
formula = correct | trials(1) ~ confidence,
family = binomial(link = "logit"),
# family = "binomial",
data = analyzedApop[analyzedApop[,"qidx"]==1, ],
seed = 1,
prior = c(set_prior("",
class = "Intercept"))
)
・formula=に [ ,"..."]形式の指定は無理っぽい
is(sexpr, "try-error") でエラー:
引数 "sexpr" がありませんし、省略時既定値もありません
・Rのbrm()、デフォルトは2000回*4チェーン、バーンイン1000回。
・「……["fit"]」とすれば推定結果は抜き出せる。けど「95%CIだけ」とかはできんのか
0421
・関数の最後にワークスペースを保存するやつ(listでwrite.csvができないときなど)
(追記: ワークスペースの読み込みは、右上フォルダマークの「Load workspace」)
return(list(
wlist = save(lllll, ## saving workspace (list data)
file = PATH
)
))
・brmsのmcmc_plot、一部だけ図示したいやつ(intercept不要 など) (範囲も指定可)
mcmc_plot(bbbbb[[3]], pars = c("b_confidence")) + scale_x_continuous(limits = c(-0.3, 0.3))
・図を1つずつ順番に、逐一並べていくやつ
plot.new();
for (PLOT in 1:totalIter) {
BBBPLOT <- mcmc_plot(bbbbb[[PLOT]],
pars = c("b_confidence")) + scale_x_continuous(limits = vecLim)
pushViewport(viewport(layout = grid.layout(2, 3))) # n rows, m cols
print(BBBPLOT,
vp = viewport(layout.pos.row = ceiling(PLOT/3),
layout.pos.col = PLOT - (ceiling(PLOT/3)-1)*3)
)
}
・例のあれ(箱ひげフェイク)
0422
・「funnel plot」と「forest plot」
・「Representing categorical knowledge: An fMRI study」、まさかの
・時間割引のプロセスを、マウスで。「larger/laterを選ぶときはカーブが大きい傾向」など
・集合知のパラドックス? (「形成→維持→統合」のどれも大変)
0423
・シュリンクフレーション。やっぱり値段が上がった方が嫌われるっぽい?
・forestでのソート、aesのy(とscale_yのbreak)でsort()。元データをソートしただけじゃ無理
estCoefConfRctSort <- estCoefConfRct[order(estCoefConfRct[,"m"]), ]# ,
ggplot(data = estCoefConfRctSort,
aes(x = estCoefConfRctSort[,"m"],
y = sort(estCoefConfRctSort[,"iterQidx"]),
xmin = estCoefConfRctSort[,"l"],
xmax = estCoefConfRctSort[,"h"],
)) +
geom_vline(xintercept = 0,
size = 1.0,
linetype = "dashed") +
geom_pointrange(
size = 0.9,
color = "orange"
) +
scale_x_continuous(limits = c(-0.03, 0.1)) +
scale_y_continuous(
breaks = sort(estCoefConfRctSort[,"iterQidx"]),
)
・DLの自己符号化器は主成分分析(次元圧縮)のようなもの
(追記: AIのブレイクスルー(第3次)は特徴表現学習、2012年頃~)
0424
・電波強度の単位Jy、ジャンスキー。
・brms後のmcmc_plot()、データの取り出し方
totalIter <- 70;
estCoefConfWithinPop <- NULL;
estCoefConfWithinPop <- data.frame(
matrix(-99,
nrow = totalIter,
ncol = 9, # length(mcmc_plot(lllllPop[[2]])[1][[1]][2,])
)
)
・イナダ→ワラサ→ブリ、ハマチ→メジロ→ブリ。セイゴ→フッコ→スズキ。
0425
・MCMC: 事前×尤度(データと確率モデルから作る)≒カーネル に2つ乱数を入れて、比をとる
・砂時計(のオリフィス)
writeLines('PATH="${RTOOLS40_HOME}/usr/bin;${PATH}"', con = "~/.Renviron")
Sys.which("make")
・コレラ菌、アジア型とエルトール型
0426
・「アナレンマ」
0427
・library()の引数「lib.loc = 」
・geom_smooth()のformula、xを列名指定するとできない問題(列数は同じはずなのに)
# OKパターン
geom_smooth(method="lm",
mapping=aes(x=iris[,"Sepal.Length"], y=iris[,"Petal.Length"]),
formula=iris[,"Petal.Length"]~x)+
# NGパターン
geom_smooth(method="lm",
mapping=aes(x=iris[,"Sepal.Length"], y=iris[,"Petal.Length"]),
formula=iris[,"Petal.Length"]~iris[,"Sepal.Length"])+
# 警告メッセージ:
# 1: 'newdata' had 80 rows but variables found have 150 rows
# 2: Computation failed in `stat_smooth()`:
# 引数に異なる列数のデータフレームが含まれています: 80, 150
・「報酬率(選択に費やした単位時間あたりに得られる報酬の量)」、資源合理性的発想
0428
・自然言語処理、BERTのTは「Transformer」のT。「Attention Is All You Need」
・ファインチューニングは、学習済みモデルと新たなモデルを活用した「微調整」
・「誤報に接するだけでその後の信憑性が高まるため、正確性に注意を向けさせる」
0429
・「兄弟は他人の始まり」「虎口を逃れて竜穴に入る」
・ジャズ発祥地ルイジアナ州ニューオーリンズ、フレンチクオーター。「風致地区」
・as the story goes: 話によれば
・『Rational use of cognitive resources in human planning』
0430
・有形資産(tangibility)バイアス: 無形資産(intangibility)の方がリスクが高いと考える
・「この件についてはすでに部長の了承を得ています」「和会通釈(わえつうしゃく)」
・ブルガリアヨーグルト、園田天光光(そのだてんこうこう)
・イングランドはウィクリフ、ロラード派。チェコはフス。コンスタンツ公会議。