Deep Learningの基礎を殴り書きしてみた

初めまして。2017年度入学の「こ」です。

福岡県で就職したのになぜか東京に飛ばされてます!

 

メイン機種はsdvx、iidx(SP)です。他には、太鼓の達人jubeatスマホ版だとcytus、OverRapid、Dynamixなどです。インペⅡ皆伝です。

 

過去にはカービィの話をしてきたんですけど、ゲーム攻略について書けることもなく、グッズに関しては引っ越しの時にビニール袋に詰めまくったので、紹介もできないです...

 

 

なので、今回はDeep Learningを手軽に学べる、「A Neural Network Playground」で遊んでいきましょう。

英語版:https://onl.tw/jrfMmjx

日本語版:https://onl.tw/8v8U7Sm

Deep Learningに関する説明は他サイトに任せることにしましたので、細かい内容に興味を持った方は自分で調べてみてね

 

主旨としては、大学時代の専攻が機械学習だったのでそれについて書いちゃえっていうことと、今度この内容に関して会社の勉強会で話すのでその練習です(8割これ)。

 

(社会の闇)

 

というのは半分冗談で、復習も兼ねてまとめてみようってところです。みなさんも遊んでみて、大学時代の専攻は機械学習にしようね。

 

Deep Learningに関してですけど、みなさん知ってますよね、ということで本題に入っていきましょう。

機械学習は特徴量選択を人の手で行います。Deep Learningは特徴量選択までおこなってくれるものです。ただし内部でどのような処理をしているかがわからないといった欠点があります(どうしてその特徴量が選ばれたか説明できない)。

 

まず、このサイトの遊び方に関して、

① データを準備します

② 問題種別を選択します

③ 前処理を行います

④ 入力層の値、出力層の層の数とニューロンの数を選びます

  手法の選択(活性化関数、正則化手法)をします

⑤ 学習方法を選びます

⑥ 適当に学習させます

⑦ 損失が表示されるので、低くなることを祈ります

⑧ よくわかりませんけど、自動でテストします

 

 

1つずつみていきます。

① データを準備します

「座標点」しかないので、素直に選択してください。

Deep Learningでは基本的にデータは点で与えられるので、問題ないです。

例えば、分類問題で画像ラベルが「犬」の場合でも、ベクトル化するためデータは数値化されます。

 

② 問題種別を選択します

「回帰」か「分類」を選択します。

回帰:連続値を使い、ある数値から別の数値を予測すること

分類:離散的な入力値を、事前に定義された複数のクラスに分類すること

https://ainow.ai/2022/02/11/263089/

 

③ 前処理を行います

データを何%を訓練に用いるのか、ノイズをどれくらい入れるか決めます。

ノイズを入れることで綺麗なデータではなくなります。分離境界を引くのが難しくなります。

 

④ 入力層の値、出力層の層の数とニューロンの数を選びます

手法の選択(活性化関数、正則化手法)をします。

活性化関数(隠れ層、出力層)を選択します。

目的としては、非線形関数を挟むことにより分離曲線を引くため(線形関数ではない)です。

非線形関数を用いることで複雑なデータにも対応できるようになります。

https://atmarkit.itmedia.co.jp/ait/articles/2003/26/news012.html

 

⑤ 学習方法を選びます

損失関数、最適化アルゴリズムの選択(バッチサイズ)、学習率を選択します

損失関数は、回帰だと平均二乗誤差か絶対二乗誤差、分類だと交差エントロピーを使います。

まず、損失関数とは、機械学習モデルが算出した予測値と、実際の正解値のズレを計算するための関数です。ズレなので、小さければ小さいほど良いです。どういった関数を使うかは回帰と分類で大体決まっています。

最適化アルゴリズムは、損失関数を最小にするために用いられる手法です。Deep Learningだと1000万次元とかそれくらいの関数になるので、微分して...と計算していたら一生計算が終わりません。そこで、全体を見るのではなく、パラメータごとに最適に(損失関数を最小にする)値を更新するといったことをします。

SGDとかRMSPropとかAdamとか選べます。この辺りを詳しく知りたい方は以下のサイトを参考にするとよいかもしれません。

学習率はパラメータの更新値を調整します。値が大きすぎればいいということでもなく、小さければいいということでもありません。局所解問題やPathological Curvature問題があります。

こういった、人の手で最適な値を決めないといけないような変数をハイパーパラメータと言います。ハイパーパラメータを最適にする手法としてはグリッドサーチなどがありますが、ここでは省略します。

 

損失関数:https://rightcode.co.jp/blog/information-technology/loss-function-neural-network-learning-theory

最適化アルゴリズムhttps://qiita.com/omiita/items/1735c1d048fe5f611f80

 

⑥ 適当に学習させます

再生ボタンを押してね(エポック数)

学習が進みます。エポック数は学習回数みたいなものです。

エポック数やバッチサイズの解説は、以下のサイトに委ねます。

https://arakan-pgm-ai.hatenablog.com/entry/2017/09/03/080000

 

⑦ 損失が表示されるので、低くなることを祈ります

TrainLossとValidationLossが表示されます。

まず、データには大きく2つ(厳密には3つ)あります。

学習データ:モデルの学習のために使います。パラメータの更新とか

テストデータ:モデルの精度検証のために使います。

2つに分けている理由は、学習データとして使ったデータを用いてテストしたら、暗記みたいなことになって精度はあがっちゃうよねということです。

それがなんで問題かというと、上の場合だとテストして精度も保証されています!といっても運用時にポンコツ性能を発揮してしまわないようにするためです。

 

損失については、training lossとtest loss(validation loss)がありまして

training loss:学習データに対しての損失

test loss:テストデータに対しての損失

があります。training loss < test loss の時を過学習と言います。機械学習でかなり厄介な問題です。

 

⑧ よくわかりませんけど、自動でテストします

1つの点を生成して、テストします。

運用時の精度検証だと思います。

 

 

 

 

ここまでがちょっとしたDeep Learningの解説ですね。

 

ここからは少し動かしてみて、先ほどの内容を復習しましょう。

以下の①〜③について考えてみます。

①学習率をいじってみる

②活性化関数をいじってみる

正則化項をいじってみる

 

①学習率をいじってみる

 

学習率=1, 0.01 の2パターンで動かしてみました。

 

エポック数の差はあれど、OUTPUTのところを見ると、学習率=0.01の方が安定していますね。この差はどこからきているのでしょうか。

学習率とは、最適化アルゴリズムでの、パラメータの更新幅に寄与している値のことでした。学習率=1だと、更新幅が大きすぎて最小値の窪みを通り過ぎてしまい、中々安定しないということです。

このように、学習率とは何か、学習率がどのフローに関係しているかが理解できていれば、どうしてこの挙動になったのかがわかります。

 

②活性化関数をいじってみる

Linear(線形)、ReLU、Tanhの3パターンで学習してみました。

 

・Linear

 

・ReLU

 

Tanh

 

・Linear

活性化関数として、線形関数を用いた場合の実行結果になります。

分離曲線を引きたいのですが、線形関数を活性化関数としている場合は分離"直線"しか引くことができません。なので、画像のような分類問題の場合はどんなに学習を進めても精度が上がることはありません。

・ReLU

活性化関数として、ReLU関数を用いた場合の実行結果になります。

まずReLU関数とは、0以下の時は0、0以上の時はxを出力する非線形関数です。非線形関数を挟むことで複雑な分離問題に対応できるようになり、画像のような問題でも対応できるようになりました。

余談ですが、ReLU関数は部分的に見れば線形関数なので、分離曲線は直線をいくつか組み合わせた形になっています。

Tanh

活性化関数として、Tanh関数を用いた場合の実行結果になります。

Linear関数の時に発生していた問題を解消できました。モデル側で用いられる活性化関数として一般的なものがTanhと、先ほど説明したReLU関数になります。

 

せっかくなのでSigmoid関数についても見ていきます。

 

・Sigmoid

hidden layersの層の数を変えてみました。こうすると学習が全く進まない状態になります。

これはSigmoid関数を使用したときに起こる勾配消失問題になります。

最適化アルゴリズムで最適なパラメータを計算するために勾配を用いており、Sigmoid関数の微分した関数は最大値が0.25ということに注意します。微分値を計算するためにBack Propagation(誤差逆伝播法)を使用しますが、Sigmoid関数の勾配がいくつも重なり、層の数が増えれば増えるほど小さくなり、学習が進まなくなります。

 

層の数を先ほどの別の活性化関数の時と同様にすると学習が進むようになります。

 

正則化項をいじってみる

正則化項としてL1、L2が選べます。L1正則化はlassoとも呼ばれ、正則化と同時に次元削減もおこなってくれる正則化になります。ただ、再現ができていないのでここでは割愛します...

 

正則化項をL2、以下では正則化パラメータをいじってみます

 

正則化パラメータ=0.01

正則化パラメータ=0.1

過学習の抑制のために用いるのが正則化なのですが、こちらも再現できず...

以下では正則化パラメータを大きくしすぎるとよくないよ、ということを解説します。

上の画像では正則化パラメータが0.01の時は学習が進んでいるのですが、0.1の時は学習が全く進んでいないことがわかります。

L2正則化における正則化項の役割は、通常の損失関数に加えて正則化項を加えた関数の最小化を考えます。そうすることで、罰則・ペナルティを加えることで、パラメータによる影響を小さくし、過学習を抑制するといったものです。

ここで注意しないといけないのが、罰則を大きくしすぎるとパラメータ全体が潰れてしまい、学習が進まなくなります。

こちらもハイパーパラメータになりますので、人の手で最適な値を入れる必要があります。

 

実際にモデルを扱う際には、ハイパーパラメータが複数ある場合がほとんどです。その時に適当に動かしては学習して...を繰り返していると時間がかかりすぎて現実的ではありません。

ハイパーパラメータの選択手法として、グリッドサーチ、ランダムサーチなどがあります。今回は解説を省略します。

 

--------------------------------------------------------------------------------

機械学習の理論を勉強すると、出力結果が良くなかった場合、どうしてその結果になってしまったのか判断ができるようになります。こういった人材は企業では、研究を行う部署(ビジネスにおける新規手法を考案する)、業務側ではモデルの裏側を知っている有識者・レビューを行う有識者のような立ち位置になると思います。

 

また、機械学習の分野は他の数学分野と比較しても新しい手法が次々と出てきている分野になります。新しい手法・概念が次々に出てくるため、日々情報収集することが大切です。

 

 

内容は以上になります。

機械学習エンジニアは世界的に不足してるらしく、論文の内容を読んで新規性を理解して...といった高度なことができるエンジニアはさらに希少らしいです。ということは給料も良いということですね(知らんけど)。

 

ちなみに今回はモデルの解説をしましたが、ビジネスではデータ準備に一番時間をかけます。

精度評価までにかかる時間(全体)のうち、8割程度はデータ準備に使います。

--------------------------------------------------------------------------------------

もう資格の勉強したくない

 

福岡の金融系の会社に就職したんですけどね、なぜか今はこういうことやってます

 

 

くえばアドベントカレンダー2020冬

 おはようございますこんにちはこんばんは。12/11担当の こ「@k1o2g1a9」です。最近Dyscontrolled Galaxy (mxm)をS載せました。ですが、Everlasting Message (GRV)がS乗りません。メイン機種予定はデデデ大王のデデデでデンです。

 

 前回のアドベントカレンダーの時に今回書くことを決めていたはずですが、忘れてしまったので、好きなことを適当に並べることにしました。なので内容はおそろしく薄いです。

 

こんな顔で書いていました↓

f:id:k1o2g1a9:20201201213538j:plain

 

 

なので、ティンクル ポポについて語りたいと思います。

 

開発元は「ジャンボ尾崎ホールインワン・プロフェッショナルでおなじみのHAL研究所」です

 

 

 

 

 

 

 

 

 

 

 

というのは冗談で、カービィについていろいろ適当に語っていきたいと思います。

1、ゲーム

2、グッズ

3、カービィカフェ

の順で適当にやっていきましょう

 

 

 

 

1、ゲーム

 僕がカービィのゲームで一番はじめに遊んだのは、「カービィのエアライド」でした。このゲームですら2003年発売ということに震えています

 カービィを語る上でまずゲームは全て遊んだ方がいいと思ったので、とりあえず全部遊んでみようと思います。まだ遊んだことがないのは、「毛糸のカービィ」「タッチカービィWii Uにでたやつ」「3DSのロボのやつ」ですが、いずれ遊ぶつもりです。

 

 なんとなく面白いゲームを紹介します

・個人向け→スターアライズ、タッチカービィ

・複数人向け→エアライド

 

 タッチカービィはストーリーがあまり長くない印象ですが、やり込み要素が多めでなかなか考えさせられるものが多いです。カービィが丸いおかげでこのゲームができたと言ってもいいのではないでしょうか(?)。ゲームは昔持っていましたが売ってしまったので、詳しいゲーム内容は調べてください。」

 ちなみにタッチカービィ スーパーレインボーは全然売れなかったらしいです

 

 スターアライズは最近遊んで記憶に新しいからです(?)。本当の理由は、BGMなどのゲームの世界観が良かったこと、数十年ぶりに復活したキャラクターがいることなどワクワクする要素が多かったからです。

 

f:id:k1o2g1a9:20201202212210j:plain

 

 また、初めてアドベントカレンダーに参加したときにスターアライズのアルティメットチョイスEX級の攻略に関する記事を書いているのでよかったら読んでみてください(5000字ほどありますが...)

qu-aver.wixsite.com

 

 この記事はもともとEX級の1つ下の難易度で記事を書くつもりで準備を進めていたのですが、11/30くらいにEX級が追加されたため、急遽EX級の記事を書くことにしました。初めて書いた記事が一番上手く書けている気がして泣いています。

 

 

 エアライドカービィのゲームの中でもかなり有名だと思います。先ほども言いましたが発売されたのは2003年で、当時放送されていたアニメカービィにもエアライドのBGMが使われていたりします。今買おうとするとプレミアがついていてかなり高いです(僕は5300円ほどで購入しました)。

 エアライドといえば、他のプレイヤーの乗り物を破壊できる「友情破壊ゲーム」でもあり、コンピュータに攻撃されるとものすごくムカつくので注意が必要です。

 

  DL版としてはスーパーカービィハンターズがおもろいと思います。良かったらやってみてください(なんと無料!)

 

f:id:k1o2g1a9:20201202212632j:plain

 

 こちらもなんと記事を書いているのでぜひ読んでみてください

 

k1o2g1a9.hatenablog.com

 

 最近DL専用は出ていますがソフトは出ていないので、次の新作ソフトに期待しています。

エアライド?)

 

 

 

 

2、グッズ

 2-0 適当

 2-1 ガチャポン

 2-2 一番くじ

の感じで語っていきたいと思います。

 

2-0 

グッズに関してはかなり出ているので家にあるやつを適当に貼っていって、みんなの購買意欲を高めたいと思います

 

 

f:id:k1o2g1a9:20201201210759j:plain

 

これはプププトレイン2020のオンライン限定商品のブロックカレンダーです。組み直せば一生使うことができるので楽しいです。プププトレインは毎年、東京と大阪と名古屋(博多はまだですか?)で開催されていて、大阪と名古屋に現地行こうかとも考えたのですが、某ウイルスの影響でやめました。

 

 

 

f:id:k1o2g1a9:20201201211217j:plain

 

これは小さなドーナツを入れようと思って買ったもの(本来はキャンディが入っています)ですが、気合を入れても2個しか入らなかったので、今は何もいれていません。いつか喉飴でも入れたいと思います。

 

他には(プププトレインからは離れます)、

 

f:id:k1o2g1a9:20201201202830j:plain

 

全人類が家に最低1つは持っていると言われているカービィのぬいぐるみです。

写真のは、アニメが放送されていた頃のものなので、おそらく18年前から持っていると思います。

 

f:id:k1o2g1a9:20201201203119j:plain

 

これはアニメ版のカービィトランプです

 

まあ、これは最近中古で手に入れたものなんですけどね

状態がかなり良いので、使っていません

 

f:id:k1o2g1a9:20201201212227j:plain

 

これはご当地カービィとかいうやつです。各都道府県ごとにあるので、いつか47都道府県コンプリートしたいです。

 

 

 

f:id:k1o2g1a9:20201201213538j:plain

 

 

これは楽市楽座イオンモール福岡伊都店で100円でとった扇風機です(楽市楽座イオンモール福岡伊都店様ありがとうございます)。風量はたこ焼きの上に乗っている鰹節を吹き飛ばせるくらいです。おうちでBMSやる時に使うにはちょっと弱いかもしれませんが、ティッシュくらいなら飛ばせそうです。

 

 

2-1

 ガチャポンは大体1ヶ月に1回くらい新しいものが出るような気がするので、時々確認すると新しいものが出てたりして嬉しくなります。

 

f:id:k1o2g1a9:20201201204228j:plain

下のカップは神戸に遊びに行った時に「ガチャガチャ専門店 ドリームカプセル」を見つけたので、速攻買いました。残り2個しかなかったので2回しか引けませんでしたが、本当は20回くらい引きたかったです。

 

 

 

f:id:k1o2g1a9:20201203212953j:plain

 

つい最近見つけたので引きました。2/5カービィなのに4回引いても出なかったので諦めました。いつもなら出るまで引き続けるのですが、今はあまりお金を使えない時期なので賢い選択をしました。カービィカフェのストアでたくさんお買い物をしたいからです。

 

 

 

f:id:k1o2g1a9:20201203213212j:plain

 

これは全4種なのと全部が大当たりだったので、全種類出るまで引きました(7回)。なぜか最初見た時2回しか引いてなくて後悔していたのですが東京に遊びに行った時に見つけたので意地になって引きました。このシリーズは最高以外の言葉が見当たらないくらい最高なので、見つけたら5回は引くようにしています。

 

2-2

 一番くじは多分年3回くらい、ローソン様であってます。見るだけで何回も引きたくなりますが、引きすぎると家におく場所がなくなるので注意が必要です。

 

 どんなものがあるのかというと、例えば

 

f:id:k1o2g1a9:20201201204659j:plain

 

2019年冬の一番くじA賞です。この時は10回引いてA賞からF賞まで全部当てる強運を発揮したので、でかい袋3つを頑張って持って帰りました。

 

カービィ一番くじの個人的に良いところは「外れがない」ことだと思います。ローソン様で定期的に行われているので、みなさんぜひ引いてみてください。

 

 

f:id:k1o2g1a9:20201201210158j:plain

 

 その下にいるのは20代の人の部屋には必ずあると言われている1㍍くらいある巨大なぬいぐるみです。一人暮らしを始めたら机の隣に座布団を敷いて置いておきたいと夢見ています。(一番くじとは関係ない)

 

 

 

f:id:k1o2g1a9:20201201211657j:plain

 

これは今年の10月の一番くじのB賞です。これは正直使い方がよくわかりませんでした。

 

 

 グッズに関してはまだまだたくさんありますが全部について語っていると1つの論文くらいの文量のなるのでそろそろやめておきます。

 

 あとグッズに関して宣伝したいことがありまして、何とカービィグッズの常設店が大阪梅田にオープンしたそうです。(やったね)

 

 

 行ってもいいなら今すぐにでも飛んで行きたいですが、例のウイルスの件もあるので収まったら対策を取りつつ最善の注意を払って向かいたいと思っています。

 

 

3 カービィカフェ

 以前の記事でも少し話をしましたが、また色々と進化しているので紹介していきたいと思います。

 

 

 期間限定だったらしいですが、いつの間にか常駐することになったので、いつでも行けるようになりました(やったね!)。しかも、博多開催で土日以外は基本空いてるので実質行き放題です。

 

 カフェの方はクオリティも高く豊富なメニューで何度でも楽しめます。また、味に関してもかなり高くコラボカフェとしてかなり高い評価を得ていると思います。(メニューや値段を多少見たことがある程度で他のコラボカフェは行ったことありませんが)

 

 

f:id:k1o2g1a9:20190926230319j:plain

 例えば、こんなメニューがあります。(今はメニューにないとか何とか)

 

 

 僕が嫌いな食べ物、フルーツが多いのであまりこちらを説明することができないため、メニューに関しては自分で調べてみてください。

 

 なので、家にあるグッズを何個か紹介してみなさんの購買意欲を高めたいと思います(僕はすでに10万は使っています)。

 

 

f:id:k1o2g1a9:20201203213700j:plain

 

これは2020年の初めにストアで買い物した時に数量限定でもらえるやつです。限定なのでとても嬉しくなります。オタクなので限定品の3文字が大好きです。

 

 

f:id:k1o2g1a9:20201203213846j:plain

 

 ストアに設置してあるガチャです。これに関しては100回くらい引いて部屋中に並べたいのですが、持って帰れないのでしてません。今度気が向いたら10回くらい引いておきます。実は昔東京のストアでは回数制限(3回)があったらしいですね。

 

f:id:k1o2g1a9:20201202205159j:plain

 

  ぬいぐるみを置いて眺めることで音ゲの地力も上がるかもしれません。僕はこの方法でサウンドボルテッッッッッッックスでインペリアルになりました。皆伝はもう少し待ってください

 

 

f:id:k1o2g1a9:20201202205752j:plain

 

 机の見える位置に置いておくことで集中力は格段に上がります。いつも5分しか集中できない人でも5分7秒は集中できるようになると思います。これもおそらく1家に1個ずつ置いてあるはずです。持ってない人はいますぐ買ってください(願)

 

 季節ごとに新しい商品(カフェのメニュー、ストアのグッズ)も追加されるみたいです。なのでストアは新商品が出るたびに訪れるようにしています。なので公式Twitterをフォローして情報を逃さないようにしましょう。

 

 

 

 

 

 

 

 今回の記事はこれくらいで終わりにしたいと思います。僕はもうすぐ卒業ですが、音ゲモチベが続く間はQUaverの活動にOBとして参加したいと考えているのでその時はよろしくお願いします。そして、全人類一度はカービィカフェ博多に行ってください(半強制)。

ブログリレー 2020 5/5

こんにちは。くえばブログリレー2020春5/5担当の「」(@k1o2g1a9)です。

 

 新入生の人、僕のことがよくわからない人がいると思いますが、画像で表すとこんな感じです。SDVXやIIDXなどやってます。

f:id:k1o2g1a9:20200502114835j:plain

 

 外出自粛によりゲーセンにも行けないし友達の家でワイワイするのもあまりできないといった理由により、家でたくさん時間を潰せるおもろいゲームを紹介(個人的に好きなやつ)しようと思います。

 

その中でもこの3つを選びました

 

ロックマンエグゼ

ロックマンエグゼ6 グレイガ版

流星のロックマン

 

 

 選んだ理由は「クリア後のやり込み要素が多い」ことです。ラスボスを倒した後にさらに強い敵が出てくるやつ、です。その中にはチップを全部集める、などがありますが、通信しないとできない部分があるので友達がいないと制覇できません(エグゼ3はWii UのVCでは最初からもらえるみたいですが...)。そうなると心が苦しくなるので、その中でも「ボスのタイムアタック」をメインにしたいと思います。

 

 エグゼ6ではSPのデリートタイムが記録され、流星3の方でもRボスのデリートタイムが記録されます。友達とタイムを競い合いましょう。

 

1、ロックマンエグゼ3に関して

 まず入手すべきチップは「バリアブルソード」です。ストーリーの中盤で手に入れることができ、コマンド入力することで160*4=640ダメージを与えることができます。まずはこのコマンド入力をマスターしましょう。

 

 エグゼ3に関してはメガチップでタイムが変動しません。メガチップは時を止めて相手にダメージを与えやすいのでタイムアタックでは活用していきます。(エグゼ6ではタイムが変わるような気がします)

 

 

f:id:k1o2g1a9:20200501113730j:plain

 

 こんな感じでバトルが始まります(この時点で懐かしい)

 基本的にフルカスタムを使うため、最初の画面でフルカスタム(ブラック版の場合はフォルダリターンも含む)がなければやり直しです。エネミーサーチを使って敵を出やすくするのですが、10000ゼニーするので泣きそう。

 

f:id:k1o2g1a9:20200501113922j:plain

 

 自分が欲しいチップが出るまではやり直しを続けます。属性や地形が異なる場合(バブルマン、フレイムマンなど)色々なデッキを組む必要があります(当然)。

 

おすすめチップ

・バリアブルソード

先ほども書いた通り、コマンドが成功すれば160*4=640ダメージ(4属性攻撃なので相手が属性持ちだと800ダメージ)与えられます。バブルマン戦では効きません(残念でした)。

・バブルマンV4

攻撃力は20ですが、8連続攻撃してくれるので20*8=160、アクア+30やナビ+40と組み合わせることでとても強力になります。特にフレイムマン(火属性)にアクア+30を3枚使うと(20+30*3)*8*2=1760ダメージとなります。(V5まであるのですが、通信ができる環境がないと入手することはできません。VCならV5を入手できます)

フラッシュマンV4

攻撃力としてはあまり良くないですが、「ブラインド状態(ダメージを与えた時に一時的に攻撃を与えられない)でもダメージを与えられる」点で便利です。さらに麻痺状態になるので次の攻撃も当てやすいです。

・プラントマンV4

だいたいフラッシュマンV4と説明同じ。

・キラーセンサー3

 強い

NOビーム2と組み合わせるとなお強い(コードEで揃うはず)

 

f:id:k1o2g1a9:20200502115631j:plain

 V3に関してはタイムが記録されないのでメモに残しておきました(ブラック版)。

 特に苦戦したのはメタルマン、ダークマンと言ったところです(メタルマン→地形がめんどい、ダークマン→とりあえず強い、無属性)。

 

 SPボスもボコボコにしたいのですが、通信でチップ交換をしなければいけない部分があるため、今回はできていません。いつか通信できる環境、またはWii UのVCでやってみたいと思います(セレナード、フォルテGSもボコボコにしたいので)

 

f:id:k1o2g1a9:20200502115343j:plain

 

 エグゼ3といえばこれ(4からできなくなりました)

 

2、ロックマンエグゼ6に関して

 エグゼ4からカウンター的なやつが追加されました。カウンターを取れると次のチップのダメージが2倍になります。なので基本的にはカウンターをとってそれから瞬殺してあげるのですが、クサムラシードとかの上でダメージを与えると、ダメージが2倍になる特徴があるのでこれを使っていく方が多いかもしれません。

 

 カウンターを取りやすい敵(例えばブルースの場合はリフレクメットを使うだけでカウンターが取れます)もいればタイミングがよくわからない敵もいたりするかもしれないのでそこは自分でタイミングを確認するのがいいと思います。

 

 グレイガ版とファルザー版で敵(ストーリー上では味方)が一部異なり、チップのコードも変わるので異なる対策が必要です。

 

f:id:k1o2g1a9:20200502115042j:plain

 

 ストーリーの始めの方でもこんなやつ出せるみたいです(相手の攻撃力的には1発でサヨナラ)。

 

f:id:k1o2g1a9:20200503112806j:plain

 ダイブマンの攻略(自己流)だけ少し書いておきます

 相手は最初水中に潜りますが、その間ほんの少しだけ攻撃できるため、ブルースSP+ホワイトカプセルで相手を麻痺状態にさせます(水中に潜るとダメージを与えられない)(290)

 その次にエレキパルスのプログラムアドバンスをキメられることを祈ります(400*2)

 これにもホワイトカプセルをつけます(多分)

 後の詳しいことは忘れましたが大体こんな感じでやると多分簡単に倒せます。

 このタイムを出すのに確か2〜3時間くらいかかりました。

 

おすすめかもしれないチップ

 

・トレインアロー2、3

火属性(ヒートマン、チャージマン)に有効だと思います。2を入れているのは3のチップ容量が大きくて2枚しか入れられないからです。

・デルタレイエッジ

真ん中あたりにいると260*3=780ダメージボコれます。ブルースやスラッシュマンだとカウンター取ってこのチップ使うと徹底的にボコれます

・ダブルポイント

フルカスタムと同じくらい必要不可欠なチップ、自分のフィールドを減らす代わりに次のチップの攻撃力を上げられます。

・トルネード

このチップをクサムラシードとダブルポイントとグレイガみたいな見た目になるやつを組み合わせたら大体の敵は瞬殺できます。(20+60)*2*8=1280

アタック+30とか色々組み合わせたら2000ダメージを超えるはずなので、SPボスはボコボコにできます

・リフレクメット

 最強

 

 

f:id:k1o2g1a9:20200503125050j:plain

f:id:k1o2g1a9:20200503125108j:plain

 

 タイムをあまり意識せずに、カウンターを利用してスマートに倒すのも楽しむ1つの方法だと思ってます。

 SPボスよりも強いやつRVボスと戦うことができます。また、RVボスをボコボコにした後フォルテSPをボコボコにできます(かなり強いです)。

 

f:id:k1o2g1a9:20200503125300j:plain

 

 グレイガ版といえば、ラスボスがめちゃくちゃ弱いことで有名かと思います。

 当たり判定が2つ+リフレクメットでカウンターとり放題なのでノーダメージもとても簡単です(ファルザーはグレイガより100倍くらい強いですがそれでも歴代作品に比べると弱いかもしれません)

 

3、流星のロックマン3について

 対戦が横から縦になって不評だった的なこともあるみたいですが...

f:id:k1o2g1a9:20200502113338j:plain

 

 慣れればこっちも楽しいです(個人的に)

 3に関してはかなり人気(らしい)で、中古で2800円くらいで買いました(2019年2月)。

 2も買ったのですが、移動のタイムラグが苦しくて心が痛くなったので3の方を記事にすることにしました。

 

 流星のロックマンの悪いところとしては、通信対戦しないと完全クリアはできないことです(Conguratulationは拝むことができます)。完全クリアしたいので、流星3を持っている方、お願いします。

 

f:id:k1o2g1a9:20200502114406j:plain

 

 まず、流星3のタイムアタックに関してはクイックゲージが不可欠です(1ターンでボコボコにするのは結構厳しい)入手方法は適当に調べると出てきます

 

 また、3の特徴としてライブラリにのってないチップがたくさん手に入ります。強力なチップも多いので、色々調べてからフィルダを作るのがいいかもしれません。

 

 タイプ(?)はブライノイズ一択です。ソード系の攻撃力が+50になり、これを活用していきます。(キズナリョクとかいうよくわからないものがありますが、今作では別に上げる必要はないと思います。2に関しては友達がたくさんいないと苦しいです)

 

 今作ではカウンターを取るとチップが1枚さらに使えるようになるらしいです。タイムアタックをする場合、これは必要不可欠となります。

 

おすすめチップ

・ソードファイター2,3,X

ソード系であり、5連続攻撃のため(2は4連続)Xの場合(60+50)*5=550ダメージです。Xは入手がかなり難しく、2でも(50+50)*4=400です

 

・エレキスラッシュ

これもソード系。麻痺状態にしてくれるので嬉しい。

 

エドギリブレードX

これもソード系。同じカードを続けて選ぶと攻撃力が上がって嬉しい。

 

・ブレイクサーベルX

これも。嬉しい。

 

 属性持ちに関しては弱点をつくチップをモリモリ入れます。メガチップやギガチップも有効に使っていきます。

 

f:id:k1o2g1a9:20200503131751j:plain

f:id:k1o2g1a9:20200503131813j:plain

f:id:k1o2g1a9:20200503131832j:plain

 

 ジャック・コーヴァス、グレイブ・ジョーカー、アシッド・エースが難しいと思います。この3つはカウンターが取れないと12秒きるのは厳しいです(ミッション的なやつでRボスを12秒以内で倒す、というものがありクリアできないとCongratulationsを拝めません)。

 個人的に一番難しかったのはジャック・コーヴァスです。

 ジャック・コーヴァスはHP3200もあり、苦しいです。ジョーカーとエースは無属性でかつHPも高いので苦しいです。

 

 Conguratulationsを拝んだ後かは忘れましたが、Σボスと戦えます。ΣボスはRボスと比べてHPも攻撃力も格段に上がり、かなり強敵です。Ωボスもいるらしいですが、遭遇率はものすごく低いらしくめんどくさいので諦めました(通信しないと出てこないやつがいるらしい)。

 

f:id:k1o2g1a9:20200503133143j:plain

 3といえばこの画像(?)

 

 

 こんな感じでこの記事は終わりにしたいと思います。

 

f:id:k1o2g1a9:20200503133326j:plain

 

 エグゼ3は2002年、流星3ですら2008年の発売で懐かしさ溢れるゲームですが、本当にこんな昔のゲームなのかと思わされます(ボリューム的にも)。やり込み要素がとても多いので外出できない今、とてもおすすめです(20時間くらいでとりあえずクリアはできると思います)。

 

 個人的にエグゼ3、6のボス戦のBGMがとても良いです。リセットを何百回もしますが良いBGMのおかげでモチベが保てます。運良くチップが揃えば数秒でボコボコにするのであまり聞くことはできません。

 

 最後に、エグゼ3のプロトがどうのこうのしてるときの画像が現在のご時世にピッタリだったので貼っておきます

 

f:id:k1o2g1a9:20200504105628j:plain

f:id:k1o2g1a9:20200504105644j:plain

f:id:k1o2g1a9:20200504105658j:plain

 

最後まで読んでいただきありがとうございます。

アドベントカレンダー2019冬

 2019アドベントカレンダー12/19担当の こ「@k1o2g1a9」です。最近は高校1年性の終わりまで頑張ってた「太鼓の達人」をしています。キミドリバージョンで十段に受かってこれからっていう時期にボルテにはまってそれからほとんどしなくなったため、また十段に復帰(ソライロ、モモイロ)できるように、また「でたらめ」をとてつもなく頑張っていたのでそちらも頑張りたいですね(今ではそうでもないかもしれないけど当時キミドリまではそこそこの記録だったんじゃないかって自分で勝手に思っています)。

 秋のアドベントカレンダーではカービィのゲームに関する記事を書きましたがそろそろ違うネタでブログを書こうかなと思ったり思わなかったりしています。

 

 今回は数学のお話をしようと思います。と言ってもまだ数学にわかなので厳密でないかもしれません。日本語的におかしい部分があったら教えてください。ガラスのメンタルなので優しくこっそり教えてください。

 

 数学のことで何を話そうかな、って考えたのですが3年後期から研究室配属されて専門的な内容を勉強し始めたのでそのことについて話そうと思います。

 

 なので(?)、今回のテーマは「機械学習」です。新しい定義を理解したり定理を証明したりなどではなく、今まで勉強した数学的内容を使って新しいことを勉強します。と言ってもまだ研究室配属されて2ヶ月ちょっとなのでまだ具体的な数値を用いた計算は一切してませんしプログラミングをしてなければPython機械学習といえばPython)のPの字も理解していないので、機械学習の基礎部分というか、統計分野の基礎も含めて適当に掻い摘んで話したいと思います(統計の知識をいっぱい使います)。まだ理解してない部分もあるのでセミナーで担当した部分を引っ張ってきました。

(yでもベクトルで表されているのか実数で表されているのかをはじめに書いておきます。

 ベクトル→\mbox{y}、実数→y

 

目次

1 多変量正規分布

2 最小二乗推定法

3 リッジ回帰

4 ラッソ回帰

5 正規分布の積の積分計算について

 

1、確率分布について

 確率分布って何?って思った人はそこから説明していると文量がとんでもないことになるのでGoogleなりで調べてください。(すいません)

 

 機械学習の本を読んでいてよく目にするのは多変量正規分布だと思います。どんな式かというと(k次元正規分布)、

f(x_1,...,x_k;\mbox{μ},\mbox{Σ})=\frac{1}{(2\pi)^{\frac{k}{2}}\sqrt{|\mbox{Σ}|}}exp(-\frac{1}{2}(\mbox{x}-\mbox{μ})^T\mbox{Σ}^{-1}(\mbox{x}-\mbox{μ}))

\mbox{μ}=(μ1,...,μk)^Tは-∞<μj<∞ ,i=1,...,kを満たし、\mbox{Σ}=(\sigma_{ij})は正値定符号の対象行列

こういう式です。他学部は知らないけど数学科では3年前期の統計科学・演習の講義で出てきます。当然計算量は増えるので泣きそうです。

 

2、最小二乗推定量

 多分メインはここです。

 \mbox{y}=\mbox{X}\mbox{β}+\mbox{ε}と表されるものを考えます。ここで、

\mathbb{E}(εj)=0,cov(εi,εj)=\sigma^2\delta_{ij}

を満たします。この式の意味は1次元でイメージを掴むのがいいと思います。f:id:k1o2g1a9:20191212221139j:plain

 一次元の場合、y=f(x)+ε、またはy=α+βx+εの形で、直線部分がf(x)

緑の点がyの値で赤線の長さがεに対応しています。

 

 \mbox{ε}は誤差を表しているので、やっぱり誤差は小さい方がいいよね

 

これからは\mbox{ε}の2乗を最小にすることを考えます。最小といえば微分して0になるところを探しましょう。

 

\mbox{ε}^2=\|\mbox{y}-\mbox{X}\mbox{β}\|^2を考えます。これを最小にするベータを最小二乗推定量というらしいです

右辺をQ(\mbox{β})と置いて、展開すると、

 

Q(\mbox{β})=\mbox{y}^T\mbox{y}-2\mbox{β}^T\mbox{X}^T\mbox{y}+\mbox{β}^T\mbox{X}^T\mbox{X}\mbox{β}

となります。\mbox{β}に関して微分すると、

 

\mbox{0}=\frac{\partial Q}{\partial \mbox{β}}=-2\mbox{X}^T\mbox{y}+2\mbox{X}^T\mbox{X}\mbox{β}

 

よって、次の式を得ます。

\mbox{X}^T\mbox{X}\mbox{β}=\mbox{X}^T\mbox{y}

これは正規方程式と呼ばれるらしいです。

\mbox{X}^T\mbox{X}逆行列を持つならば、

\mbox{β}=(\mbox{X}^T\mbox{X})^{-1}\mbox{X}^T\mbox{y}

 

f:id:k1o2g1a9:20191212221239j:plain

 

  最小二乗推定法の欠点は上図のように値が大きく外れる点がある場合(これを外れ値と言います)、誤差の二乗を用いるため、外れ値の影響を受けてしまいます。そういうときはロバスト回帰といった方法で対処することができます。

3、リッジ回帰(ridge regression)

 f(\mbox{β})=\|\mbox{y}-\mbox{X}\mbox{β}\|^2+\lambda\|\mbox{β}\|^2

の形で表されるものを考えていきます。過学習(overfitting)が起こることを防ぐために

ラムダの値をいい感じにします。(モデルの係数の2乗和の絶対値または2乗和が大きくなってしまうと訓練データのモデルに適合しすぎてテストデータのモデルの当てはまりが悪くなるoverfittingという現象が起こるため)

訓練データとは言葉の通りコンピュータを訓練させるためのデータで、テストデータとは訓練データだけでなく未知のデータにも適合するのかを確認するためのデータのことです。過学習とは、例えば下の図だと点が6つあってその点を正確に通るようなもの(つまり訓練データのモデルに適合しすぎているもの)があったとして、未知のデータはこのモデルにぴったり当てはまるとは限らず、テストデータのモデルの当てはまりが悪くなります。

 

 

f:id:k1o2g1a9:20191212221311j:plain

 

 ラムダの値を調節することで緑→赤のようにします。 

ここで、この関数を最小にするベータを求めます。最小二乗推定量を求めたときと同じように微分して=0をします。計算をいろいろすっ飛ばすと、

\mbox{β}=(\lambda\mbox{I}+\mbox{X}^T\mbox{X})^{-1}\mbox{X}^T\mbox{y}

の形になります。さっきの最小二乗推定量と形が似ています。

4、ラッソ回帰(lasso regression)

f(\mbox{β})=\|\mbox{y}-\mbox{X}\mbox{β}\|^2+\lambda\|\mbox{β}\|^1

の形で表されるものを考えます。ラムダはリッジ回帰と同様の役割を果たします。

 形はリッジ回帰をめちゃめちゃ似ていますが、ラッソの場合は解がsparseになるといった利点があります。sparse性とは簡単に言ったらベクトルとかで0がたくさんあるやつで、一部分のみ(非ゼロ要素)を考えたらいいことになります。

 詳しい部分は自分もわかってない部分が多いので次回のアドベントカレンダーあたりで書けたらいいなって思ってます。

 

5、正規分布の積について

    機械学習では正規分布の積を積分する時がよくあるそうです。具体的には

\int N(y|\mbox{x}^T\mbox{w},\sigma^2)N(\mbox{w}|\mbox{wN}.\mbox{VN})d\mbox{w}

こういうやつです。これは

N(y|\mbox{x}^T\mbox{wN},\sigma^2+\mbox{x}^T\mbox{VN}\mbox{x})

こうなります。ここでは多変量正規分布を扱います。

 次の定理を使って解きます。

p(\mbox{x})=N(\mbox{x}|\mbox{μ}_x,\mbox{Σ}_x)

p(\mbox{y}|\mbox{x})=N(\mbox{y}|\mbox{A}\mbox{x}+\mbox{b},\mbox{Σ}_y)

この時、

p(\mbox{y})=N(\mbox{y}|\mbox{A}\mbox{μ}_x+\mbox{b},\mbox{Σ}_y+\mbox{A}\mbox{Σ}_x\mbox{A}^T)

が成立。

 今回この定理を認めて解いていきます(時間があれば今度証明をします)。

 あとは次の等式

p(\mbox{x},\mbox{y})=p(\mbox{x})p(\mbox{y}|\mbox{x})

の両辺を\mbox{x}に関して積分をすることによって計算をすることができます。

 これだけ準備をすれば、あとはパズルのように組み立てるだけです。

N(y|\mbox{x}^T\mbox{w},\sigma^2)N(\mbox{y}|\mbox{A}\mbox{x}+\mbox{b},\mbox{Σ}_y)

N(\mbox{w}|\mbox{wN}.\mbox{VN})N(\mbox{x}|\mbox{μ}_x,\mbox{Σ}_x)

これらを比較すること

\mbox{x}→\mbox{w}

\mbox{μ}_x→\mbox{wN}

\mbox{Σ}_x→VN

\mbox{y}→y

\mbox{A}\mbox{x}→\mbox{x}^T\mbox{w}(\mbox{A}→\mbox{x}^T)

\mbox{b}→\mbox{0}

\mbox{Σ}_y→\sigma^2

このようにしてやれば、

p(\mbox{w})=N(\mbox{w}|\mbox{wN},\mbox{VN}

p(y|\mbox{w})=N(y|\mbox{x}^T\mbox{w},\sigma^2)

となるので、

\int N(y|\mbox{x}^T\mbox{w},\sigma^2)N(\mbox{w}|\mbox{wN},\mbox{VN})d\mbox{w}

=\int p(y|\mbox{w})p(\mbox{w})d\mbox{w}

=N(y|\mbox{x}^T\mbox{wN},\sigma^2+\mbox{x}^T\mbox{VN}\mbox{x})

となることがわかります。

 

今回はここで終わりです。

もっと機械学習の知識がついたらもっと機械学習らしいことをテーマにしたいと考えています。統計の勉強をしているときに1年生の頃学んだ微積線形代数(特に線形代数)がかなり大事だなって感じます。基礎はとても大事なのでサボらず気合いを入れて勉強した方が後々楽になると思います(復習に追われてしまうので)。行列に関して例えば行列の微分などはあまり扱ってないかもしれません。僕の場合は今は使わないといけない場面が多いので困っています。そういう時は次のmatrix cookbookで調べるのがいいでしょう(僕もたくさん利用しています)

https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf

 

 

 

 

このブログを書くにあたって参考にした本たち

1、数理統計学 ー基礎から学ぶデータ解析ー 内田老鶴圃 ←おすすめ

2、数学シリーズ 数理統計学 改訂版 裳華房

3、Machine Learning -A Probablistic Perspective-   ←全部英語

 

くえばブログリレー

QUaverブログリレー10/4担当の  です(@k1o2g1a9)。

 

 1年生はまだ知らないかもしれないのでちょっとだけ自己紹介を。

メイン機種は、sdvxと弐寺(最近やってない)、サブ機種は太鼓の達人jubeat、超稀にチュウニズム、家庭用はdynamixとOverRapid時々cytusをやっています。

 2月のΩdimensionから弐寺の頻度が着実に減っていて4月にはほとんどやらなくなるくらいにはボルテをやっています。7月にインペリアルになってからさらにボルテのモチベが上がっているのでボルテ飽きたら弐寺に復帰しようと思います。

 

 さて、突然ですが前回の2018冬のアドベントカレンダーでは星のカービィスターアライズよりアルティメットチョイスEX級の攻略記事を書きました。5000文字超えで読むのがとてもめんどくさいやつだったので今回はもう少し読みやすいようにしていきますよ。(文字数は半分以下にしました!)

 

 

今回は短めの内容を2つ書きたいと思っていますよ。

前半 スーパーカービィハンターズ(メイン)

後半 カービィカフェ in 博多(おまけのおまけ)

 

まずは前半から。

 

スーパーカービィハンターズとは

 

2019年9/5にswitchで配信が開始されました。なんと基本プレイが無料なんです(もちろん課金アイテムあり)。

f:id:k1o2g1a9:20190917220437j:plain

 

 

基本プレイ無料なのに遊びごたえが半端じゃなかったので記事にします。

 

 

f:id:k1o2g1a9:20190917220901j:plain

 

 

最初にいる町です。コースを進めまくるといいことがあるかもしれません。 

 

 

f:id:k1o2g1a9:20190928210503j:plain

 

 

4つから選択できます

 

ヒーローソード:いわゆるソード。ガードがなかなか強いし接近戦に慣れてるなら超使いやすい

 

ヘビィハンマー:いわゆるハンマー。一撃はでかいけど全然飛べないので扱いが難しい印象

 

ヒールドクター:これに関しては最近のカービィのゲームをあんまり遊んでないので良くわからん。回復系なのでチームに1人はいるととても安心。

 

マジックビーム:名前の通りビーム。近距離も遠距離も使えて便利。時を止める能力を持っているらしい...

 

オンラインでやっていると

    ヒーローソード 5 

    マジックビーム 4

    ヘビィハンマー 0.8

    ヒールドクター 0.2

といった印象です。ヒールドクターとはほとんど当たりませんでした。

僕のオススメはマジックビームです。理由は遠距離攻撃ができる、それだけです。

 

 

f:id:k1o2g1a9:20190917221201j:plain

 

 

ストーリークエストとわいわいクエストがあります。コントローラーがあれば4人まで遊べます。わいわいクエストではオンラインに税金を払っていれば全国の誰かと遊べたりします。もちろん1人でも楽しめます。

 まずは1人で遊ぶストーリークエストから。

 

 

f:id:k1o2g1a9:20190918230645j:plain

 

 

適当にクエストを選びましょう

 

 

f:id:k1o2g1a9:20190920234141j:plain

 

 

4人で相手をボッコボコにします

 

 

f:id:k1o2g1a9:20190920234306j:plain

 

 

後半に相手にダメージを与えると石版が出現して急に音ゲーが始まります。一番上の判定は結構難しいです。多分IIDXくらいきついです。

 

 

f:id:k1o2g1a9:20190920235028j:plain

 

 

石版の力は偉大で、かなりのダメージ+相手がしばらく動けなくなります

 

 

f:id:k1o2g1a9:20190920235318j:plain

 

f:id:k1o2g1a9:20190920235521j:plain

 

 

クリアするとご褒美がもらえます。嬉しいね!

これらは武器や防具を買うときに必要になります。

 

たくさんクリアするとたくさんのステージでたくさんの敵と戦うことができます。いろんな敵と戦って地力を高めていきましょう。

 

 

f:id:k1o2g1a9:20190921000712j:plain

 

 

ミッション的な、やりこみ要素をもちゃんとあります。ジェムリンゴもちゃんともらえるのでちゃんとサボらずにやりましょう。

 しかもこれを進めることで最大レベルが上がるのでやらなかったら一生同じランクのままです。

 わいわいクエストでは、オンラインで全国の誰かさんと一緒に敵をボコれます。ただし、クエストごとに「おすすめレベル」があり、それより低い人たちが集まるとクリアはかなり厳しいです(偶然強い人が来ればラッキー!)。それに時々途轍もないラグが発生する時もあるので注意が必要です。でも、消費するやる気が少なく、経験値が1.3倍になるのでレベル上げには最適です。

 

さて、ジェムリンゴですが、このゲームの課金要素になっています。

 

 

f:id:k1o2g1a9:20190921001616j:plain

f:id:k1o2g1a9:20190921001631j:plain

 

 

ジェムリンゴは武器を買うとき、一部のクエストを解禁するとき、制限時間切れになったときにもう少し戦える権利を得たいとき...

 

などなど、そこそこ使う場面はありますが、ミッション的なやつで割ともらえるので無課金でも十分遊べると思います。僕は無課金でやっていますがジョブ4種類のうち1つだけを頑張る場合なら無課金で十分ですが、色々やりたいとなると割ときついです。

 

そういえば値段は2019年9月時点のもので、10月から消費税が10%になったので値段が変わりました。ちゃんと対応しています。

 

f:id:k1o2g1a9:20191003200020j:plain

 

 

Switch持ってる民は是非、遊んでみてください。

 

これで前半(メイン)は終わりです。

 

 

後半いきますよ

 

 

 

 

 

 

 

 

 

 

 

ついにカービィカフェが博多に上陸!!!!!!!!!!!!!!!!!!!!!

 

と、いうことで予約して行ってみました。

 

場所はキラキラ学生しか立ち入れないキャナルシティ博多の地下1階にあります。ちなみにストアは2階にあります。カフェは予約制ですがストアはフリー入場制なので、ストアだけ、と行ったかたちでも十分楽しめます。

 

f:id:k1o2g1a9:20190922231945j:plain

 

 

「 Delicious Times, Precious Memories」、英語得意な人は訳してみてください。

 

 

f:id:k1o2g1a9:20190926221927j:plain

 

f:id:k1o2g1a9:20190926230752j:plain

 

 

こんなのが貼ってあります。この時点でテンションアゲアゲ

 

 

f:id:k1o2g1a9:20190926222138j:plain

 

 

これを頼みました。新品のプレート(博多限定ver.)がもらえて2580円はいいですね(味もちゃんと美味しかったです)

 

 

f:id:k1o2g1a9:20190926230319j:plain

 

 

デザートも頼みました。このメニューは左下の陶器マスコット(博多限定ver.)がついてきます。キウイ初挑戦でしたが美味しくなかったです(パンケーキはもちろん最高でした)。

 

カービィカフェ東京はもう終わった、と思いきやなんとこの冬から常設するらしいです。博多は11/4まであります。平日なら割と空いているのでいかがでしょうか。

 

さらに、11/14からカービィカフェ博多第二部スタート(つまり、開催期間延長)が決定しました!!!!!!!!!!!!!!!!!!!

 

この機会にぜひ。

 

 

さて、今回の記事はここまでです。とうとう後期が始まってしまいましたが、伊都楽で音げをしたり、みんなでワイワイ ゲームや飲み会をしたりして耐えていきましょう。

 

 

初投稿

どうもこんにちは。QUaver2ndのk1o2g1a9です。

普段は音げ(弐寺)やらをやったりやってなかったりしてます。

なぜか突然ブログを始めて見ましたが、これが最初で最後になるかもしれません。

 

音ゲの記事も書いたり書かなかったり(攻略は語彙力の関係上、勘弁してください)しようと思ってます。

 

まあ、これからもよろしくお願いします。