Runner in the High

技術のことをかくこころみ

Github Action上でEarthlyからGithub Container Registryへimageをpushする

自分で管理しているDockerイメージのリポジトリでリリースフローを自動化してみたので備忘メモ。

github.com

実際のAction実装は以下のような感じ。

Earthlyもキャッシュをいい感じにしてくれるので2回目以降はかなり速い。

name: release

on:
  push:
    branches: 
      - master
      - main

jobs:
  release:
    runs-on: ubuntu-latest
    permissions:
      packages: write
      contents: read
    steps:
      - uses: actions/checkout@v3

      - name: Login to GHCR
        uses: docker/login-action@v1
        with:
          registry: ghcr.io
          username: ${{ github.actor }}
          password: ${{ secrets.GITHUB_TOKEN }}

      - name: Setup earthly
        run: |
          wget https://github.com/earthly/earthly/releases/download/v0.6.1/earthly-linux-amd64 -O /tmp/earthly
          chmod +x /tmp/earthly
          /tmp/earthly bootstrap
          /tmp/earthly --version
      - name: Build and push
        run: /tmp/earthly --push --ci +image

ポイントは permissions のところで、そこが設定されていないとpackageを公開する権限がなく403エラーになってしまう。

ちなみに、Github上ではPackageに対してリポジトリと1:Nの関係で権限を設定できる。うっかり自分はそれを設定してしまったのだが、その場合にはActionの設定画面でPackageに対する権限を明示的に Role: Write にする必要があるっぽい。デフォルト設定はReadのみなので、ここでWriteが設定がされていないとyamlファイルの中で permissions を指定していても403エラーが出るので注意。

Packageに対するリポジトリの紐づけを行う画面

Earthlyからは unexpected status: 403 Forbidden というエラーしか出してくれないのでなにが原因なのかわからずらい...

とりあえずopenresty/openrestyを使ったイメージを作る

超最小構成でこんな感じ

FROM openresty/openresty:1.19.9.1-alpine

WORKDIR /app

COPY nginx.conf nginx.conf

EXPOSE 8080

CMD ["nginx", "-c", "/app/nginx.conf"]
daemon off;

http {
  server {
    listen 8080;
    
    location /hello {
      default_type text/plain;
      content_by_lua_block {
        ngx.say("hello")
      }
    }
  }
}

参考になりそう→ 逆引きlua-nginx-module · GitHub

Github Actionでdockerイメージをビルドし任意のコマンドを実行する

docker/docker-push-actionaddnab/docker-run-action というやつを組み合わせると最小構成でいい感じにできる。

name: Test
on: push

jobs:
  test:
    name: test
    runs-on: Ubuntu-20.04
    steps:
      - name: Checkout
        uses: actions/checkout@v2

      - uses: docker/build-push-action@v2
        with:
          file: Dockerfile.test
          tags: yourtestapp
          push: false # pushするならここtrueでもいい

      - uses: addnab/docker-run-action@v3
        with:
          image: yourtestapp
          options: -v ${{ github.workspace }}:/src
          run: make test

ビルドするDockerfile.testはこういう感じ

FROM golang:1.16.14-bullseye

ENV APP_ROOT /src
WORKDIR $APP_ROOT

# download app deps
COPY go.mod $APP_ROOT
COPY go.sum $APP_ROOT
RUN go mod download

# use bash for entrypoint to run commands passed on running this Docker image
ENTRYPOINT ["/bin/bash", "-c"]

ローカルでもdocker上でテスト実行できるようにソースコードまるごとはCOPYしない。

あとは、最後のENTRYPOINTに /bin/bash -c を与えているのがポイント。こうしないと docker run に渡した任意のコマンドをコンテナ内で実行できない。

OpenTelemetryでもGin+GAEのログをリクエスト単位でグルーピングする

前回のOpenCensusでは比較的すんなりとGAEのログをリクエスト単位でグルーピングさせることができたが、OpenTelemetryの場合には追加でGoogleCloudPlatformのGithub Orgが用意しているpropagatorを使わねばならない。 github.com

以下がとりあえず動く超最小構成のミドルウェア

package middleware

import (
    cloudpropagator "github.com/GoogleCloudPlatform/opentelemetry-operations-go/propagator"
    "github.com/gin-gonic/gin"
    "go.opentelemetry.io/otel/propagation"
    "go.opentelemetry.io/otel/trace"
)

func Tracer() gin.HandlerFunc {
    return func(c *gin.Context) {
        ctx := c.Request.Context()

        // まずはX-Cloud-Trace-Contextからの読み取りをトライ
        // ここでエラーを拾っても何もできないので意図的にエラーは無視する
        if sc, _ := cloudpropagator.New().SpanContextFromRequest(c.Request); sc.IsValid() {
            ctx = trace.ContextWithRemoteSpanContext(ctx, sc)
        } else {
             // X-Cloud-Trace-ContextからValidな値が取れない場合には
             // traceparentヘッダからのTraceID/SpanIDのパースを試してみる
             prop := propagation.TraceContext{}
             ctx = prop.Extract(ctx, propagation.HeaderCarrier(c.Request.Header))
        }

        // 必要に応じてNewTracerProviderの中でsamplerやexporterを指定する
        traceProvider := sdktrace.NewTracerProvider()
        defer traceProvider.Shutdown(c)

        tracer := traceProvider.Tracer("yourapp/trace") // Empty: use default tracer name
        spanCtx, span := tracer.Start(ctx, c.FullPath())
        defer span.End()

        c.Request = c.Request.WithContext(spanCtx)
        c.Next()
    }
}

あとは前回の記事を参考にしてContextからSpanIDとTraceIDを取り出してロガーで送ってやればいい。まじめにやるならサンプラーやエクスポータなどもちゃんと設定してやったほうがいい*1が、そのあたりはこの記事では触れない。

OpenCensusのときはパッケージの中にStackdriver用のエクスポータが用意されていて、その中で X-Cloud-Trace-Context ヘッダから値を取り出すパーサが実装されていた。しかしOpenTelemetryからはどうやらエクスポータはインターフェイスのみを提供し、プラットフォーム固有のエクスポータは自分たちで用意してくれという方針になったように見える。Googleが使っている X-Cloud-Trace-Context 相当のヘッダはW3Ctraceparent としてベンダ非依存のオープンな仕様へと標準化されたらしく、むしろGoogle側がOpenTelemetryの仕様に従うという構図になっているっぽい。

もしかするとOpenCensus時代はまだ分散トレーシングが黎明期(?)だったこともあって、むしろ先立って分散トレーシングを製品化したり大規模に使ったりしていたGoogle側の仕様をOpenCensus側が取り入れたのかもしれない。

ヘッダの仕様に関しては以下のドキュメントが参考になった。 cloud.google.com

*1:たとえばこのサンプルではCloud Traceが動かない。トレーシングをするにしてもサンプリングの頻度指定もされていない。

GinのOpenCensusミドルウェアを作ってCloud Loggngのログがリクエスト単位にグルーピングされるようにする

OpenCensusはdeprecatedされているので本当はOpenTelemetryを使った方がいいのだけれど、やったのでメモがてらに残しておく。アプリケーションの実行環境はGAEでやった。

追記: OpenTelemetryでやる方法も書きました izumisy.work

まずはログのグルーピング(Span)をリクエスト毎に開始するためのミドルウェアを作る。

package middleware

import (
    "github.com/gin-gonic/gin"
    "go.opencensus.io/exporter/stackdriver/propagation"
    "go.opencensus.io/trace"
)

//
// ルーティングの実装ではUseを使って以下のミドルウェアを登録しておく
// router.Use(Tracer())
//

func Tracer() gin.HandlerFunc {
    return func(c *gin.Context) {
        ctxWithSpan, span := trace.StartSpan(c, "yourapp/trace")
        defer span.End()

        httpFormat := propagation.HTTPFormat{}
        if sc, ok := httpFormat.SpanContextFromRequest(c.Request); ok {
            ctxWithSpan, span = trace.StartSpanWithRemoteParent(c, c.FullPath(), sc)
        }

        c.Request = c.Request.WithContext(ctxWithSpan)
        c.Next()
    }
}

TracerミドルウェアによってContextにグルーピングのために必要な情報がセットされるので、それを取得する関数も用意しておく。

gin.Context の場合にはRequestからContextを取り出すようにしているのがポイント。

package log

import (
    "context"

    "github.com/gin-gonic/gin"
    "go.opencensus.io/trace"
)

type Tracer struct {
    SpanID  string
    TraceID string
}

func ExtractTracer(ctx context.Context) Tracer {
    sc := trace.SpanContext{}

    if ginCtx, ok := ctx.(*gin.Context); ok {
        sc = trace.FromContext(ginCtx.Request.Context()).SpanContext()
    } else {
        sc = trace.FromContext(ctx).SpanContext()
    }

    return Tracer{
        SpanID:  sc.SpanID.String(),
        TraceID: sc.TraceID.String(),
    }
}

あとはCloud Loggingにデータを送信するタイミングで、上で作ったExtractTracerを用いてContextからSpanIDとTraceIDを取り出し、それぞれ適切な形でセットしてやればok

package log

import (
    "fmt"
    "os"
    "log"

    "cloud.google.com/go/logging"
)

func Log(ctx context.Context, severity logging.Severity, timestamp time.Time, text string) {
    projectID := os.Getenv("GOOGLE_CLOUD_PROJECT")
    client, err := logging.NewClient(ctx, projectID)
    if err != nil {
        log.Fatalf("Failed to create client: %v", err)
    }

    tracer := ExtractTracer(ctx)
    logger = client.Logger("ServeHTTP")
    logger.Log(logging.Entry{
        Timestamp: timestamp,
        Severity:  severity,
        Payload:   text,
        SpanID:    tracer.SpanID,
        Trace:     fmt.Sprintf("projects/%s/traces/%s", projectID, tracer.TraceID),
    })
}

DeNAが出しているaelogというパッケージを使えばこの辺全部よしなにやってくれるっぽい。

Ginでなにもせず使えるかは試してない。ミドルウェアの型定義的に gin.WrapH とかでラップしてUseしてあげれば使えるような気もするけど、どうなんだろう github.com

追記: 調べたらこんなのもあった。 github.com Cloud Loggingとのつなぎこみだけ自分で作ってこういうのを使うでもいいかも。

2021年の振り返り

今年もあっという間に終わってしまった...

仕事について

まだまだマネージャとしてはペーペーだけれども、1年間マネージャという役職で仕事をやりきったのがこの2021年だった。読んだ本をまとめた記事も書いた。 izumisy.work

具体の仕事のはなしにはなるが、1-5月にかけてかなりダイナミックにフロントエンドのUIや体験周りを改修するプロジェクトのリーダーをしていた。これがまた影響範囲も関わるステイクホルダーの人数も大きく、正直途中から着地点を失ったPJになりかけてしまった。結果的にはどうにか着地点を見出すことができたものの、その過程では他開発チームにもチームに所属するメンバーにも様々な形で迷惑をかけてしまい、自分としては大きな反省をする出来事になった。このときの自分の中には「マネージャとしての自分がどういう動きをするべきか」のビジョンが全くと言っていいほどなかった。

この出来事以降、自分の中でマネージャというのはどのような形でチームに(そしてチームのメンバーに)貢献するべきかを考え直して、最終的に自分の中では「チームの生産性の倍率を上げるのがマネージャである」と考えるようになった。マネージャが自ら手を動かしてメンバーと同じ仕事を現場でやっているばかりでは絶対に生産性の倍率は上がらない。過去を振り返り、現状を把握し、それを未来のロードマップに繋げる。その過程で少しづつチームの、ひいては組織の倍率を上げていかねばならない。そのために必要なことはなんでもやる、それがマネージャという役職なんだろうな、というのが現状の自分の解釈として落ち着いた。

エンジニアとして

Elmのパッケージをいくつか作ったりバージョンアップしたりした izumisy.work izumisy.work

本業とは別件で、音声や信号処理に関することをいろいろ調べたりしていた。今後もSide Hustle的な感じでこれ系の技術の勉強に投資していく予定。おそらくこれは金になる... izumisy.work izumisy.work

あとはEarthlyにPRを出したりもしていた。これしかないけど。 github.com

生活

ノリと勢いで千葉に家を建てた。

f:id:IzumiSy:20211226154427j:plain:w500
当たり障りない玄関の画像

リモートワークばっかりなので仕事部屋は当然用意して、他にもランドリールームや脱衣室をつけてみたりと家のことを決めるのは大変なことも多かったが概ね楽しかった。ただ、どっかのブログで見たようなネットワークにこだわったり断熱材にめちゃくちゃこだわったりしたわけではないので、特に書けることはない。

ひとつ確実に言えることは、船橋とか市川らへんで駅に近いところには4LDKの家なんて到底買えないということぐらい... 東京なんてもってのほか。東京にある程度の家建ててる人って一体どういう仕事をしてるんでしょうね?

ネコ

なんかでかくなってきた。おなかがぽよぽよすぎる。

f:id:IzumiSy:20211226155427j:plain:w500
かわいい

来年に向けて

2年近くマネージャというポジションで仕事をさせてもらえたことで、なんとなくマネージャとはなんぞやが見えてきたような気がする。そういう意味では、2021年は自分なりのゲームの進め方が分かってきたような、風の読み方が分かってきたようなそんな感じだった。とはいいつつも、組織的な成長に自分が自信をもって貢献できたと言い切れない感覚はまだある。ゲームの進め方が分かっても、まだ勝ち筋が見えなかったりその場その場で必要な打ち手を自分の中で見つけられなかったりするもどかしさみたいな、そんな感覚。

2022年はこの手探り感にもう少し自信が上乗せされるようなそんな仕事がしたい。とりあえず、なにか良さげな本を読んだり偉い人の講演を聞いたりするのではなく、とにかく自分が責任を取りつつゴールに向かってめちゃくちゃ考え抜いた先に結果がでて初めてあとから自信がおまけで付いてくるんだろな~と思っているので、来年は責任とる仕事をやりまくります。

あとチームトポロジー本で得た学びを組織設計とか開発プロセスの改善に活かしていきたい。

ITベンチャーのミドルマネージャ初心者として参考になった3冊

izumisy.work

マネージャという役職として働くようになってそろそろ2年目が見えてきた。

自分の所属するUniposでは、複数チームが開発組織に並存するようになってから日が浅く(とは言っても1年以上は経っているが)それにともなって各チームをマネジメントするミドルマネージャ(中間管理職)というポジションはまだ黎明期的な立ち位置にある。転職組はある程度経験者もいるとはいえ基本的にはみんながニューゲーム状態であり、自分も全くと言っていいほど手探りな進み方をしている。

そんな中でも、ある程度「ミドルマネージャかくあるべし」を知るのに役立った書籍を3つ紹介する。

HIGH OUTPUT MANAGEMENT

マネージャという立ち位置ならこれを読まない人はいないレベルのやつ。

なにから読むべきか... というときにはまずこれで間違いない。とはいえ、文章もなかなか小難しい感じでもありかつボリューミイなのである程度腰を据えて読む必要はある。

この本を読むまで自分の中でマネージャとしての仕事の使い方は正直微妙で、マネージャであるのに自分もプロジェクトの中で開発メンバーとしてがっつりコードを書いていた。もちろんマネージャがコードを書くのは悪いことではないが、そのときの自分の仕事の比率といえばマネージャ業務と実装業務でほぼ2:8くらいの割合だった。思い返せば、その頃の自分はひとりのエンジニアとして出してきたバリューをマネージャになって失うのが怖いという理由で、マネジメント業務を満足にやらずにコーディングに逃げていた*1ような気がする。

マネージャというポジションにいるにも関わらず、やっていることはマネージャではないメンバと同じというバリューゼロの最悪なパターンを体現してしまった反省として「マネージャというポジションの出すべき価値はなにか」を探し回った結果この本にたどり着いた。有名な本なので言うまでもないが、自分もこの本を読んでマネージャというポジションへの捉え方が大きく変わり、自分の時間の使い方に自信が持てた。

ちなみにこれを読むのがかったるいという人は、田端信太郎が田端大学で出しているYoutubeのこの動画を見るだけでもとっかかりは知れるのでおすすめ。これを見てもっと知りたくなったら本を読むといいかもしれない。

www.youtube.com

EMPOWERED

会社で行われているマネージャ陣の輪読会で読んだ本。

マネージャとしてのリーダーシップにはプロジェクトマネジメントや育成はもちろん包含されるが、それと同時にマネージャ自身が「最もプロダクトをマネジメントできている存在」であることが求められる。EMPOWEREDはそのような内容にフォーカスを当てたプロダクトマネジメントの本になっている。

組織によってはあえて"プロジェクト"マネージャという呼称をしないところもある。これはマネージャの責務というのは人やプロジェクトのマネジメントだけではなくプロダクトの行く方向もマネジメントするべきだ、ということを示している。クライアントワークや受託開発ではなく自社開発のSaaSプロダクトなどを抱えた企業においては、プロダクトマネジメントという考え方は要求されて当然*2なものだ。

この本の中でプロダクトマネジメントに包含される形で現れる「プロダクトディスカバリ」の考え方はマネージャの時間の使い方の観点で重要な要素になりえる。マネージャはチームにとってあらゆる手段を講じて仕事を作る責任を与えられているはずだし、その仕事はデリバリや開発プロセスの改善的だけではなくプロダクトそのものの在り方を変えるものにもなり得る。組織や個人の嗜好にもよるとは思うが、マネージャとしての仕事の幅を広げることはプロダクトにとっても自分のキャリアにとっても(ゆくゆくはチームにとっても)重要だと思う。

最後に、個人的に印象に残っているのは書籍中のコーチングセクションにある「ナラティブ」と呼ばれるトピックの章。2-3ページ程度しかない中身はないが、自分にとってのリーダーシップとはこのナラティブに集約されるのではないかとすら感じる。マネジメントが人間同士のコミュニケーションである限り、どのような場においてもナラティブせずに仕事は前に進められない。この辺のスキルを根本から考えるには、おそらくアリストテレスの弁論術や、デール・カーネギーの「人を動かす」などにつながってくるような気がする。あとは同じくデール・カーネギーの「話し方入門」もいいかもしれない。

アート・オブ・プロジェクトマネジメント

プロジェクトマネジメントはマネージャにとって呼吸をするレベルで出来て当然のスキルだと思うが、それにも関わらずプロジェクトのマネジメントの前提知識はどこにも転がっていない。それでもなんとなくある程度やってみると、プロジェクトマネジメントというのは「スコープ」「人」「スケジュール」の三竦みというところまでは分かってくる。この辺は大抵の場合、ある程度は体得的なものだと思う。

そういった体得的なものをある程度体系づけて事前に知っておくのにこの本はぴったりだと思う。プロジェクトマネジメントに必要な「マインド」「準備」「戦略」「戦術」がたくさん詰まっている。特に「中盤の戦略」「終盤の戦略」の章は具体性の高い話が多いので、ある程度のプロジェクト(~1,2か月規模)をマネジメントする際にはやっておけば間違いない事柄を一気に体系立てて学べる。

とはいえ、この本の前半部分を読めば察してしまうのがやはりマネジメントとは気合そのものだという事実だと思う。マネージ(manage)の日本語訳が「どうにかする、うまくする」になっていることからも分かるように、結局は「どうにかする気合」がマネジメントの本筋(特にプロジェクトが大きければ大きいほど...)なんだろうなという感想になってしまうのは、マネージャとしてツラいところでもあり、ワクワクするところでもある。

*1:なお、このプロジェクトはとんでもない結末を迎えてしまった。

*2:ここまで要求されるミドルマネージャってのは大変だとは思うけど、大変なことが普通にできたほうがライバルは減らせるからお得だよね

Earthlyがもつ2種類のキャッシュ機構(inline, explicit)について

izumisy.work

前回はあまりキャッシュについて触れることができなかったので、今回はEarthlyが持つキャッシュ機構だけにフォーカスして書く。

Earthlyにおけるキャッシュ

Earthlyは環境に依存しない実行環境を提供するため、キャッシュにおいてもローカルファイルキャッシュのようなホストマシンに依存するタイプのキャッシュ機構*1を提供しない。代わりに、ビルドプロセスの中で SAVE IMAGE を呼んでいるターゲットの成果物をDockerイメージ化してキャッシュしコンテナレジストリに格納する。ビルドの実行時にはEarthlyが必要なDockerイメージのキャッシュをコンテナレジストリから取得する。

キャッシュイメージをpushするコンテナレジストリとして、使える人はDockerhubを使うのがいいとは思うものの、Dockerhubは無料プランだとレートリミットがかなり厳しくキャッシュとしてreadが頻繁に行われるとすぐ上限に達してしまう。なので、個人利用でEarthlyを使うのならばGithub Container Registryをキャッシュ用のコンテナレジストリとして使うのがおすすめ。

www.kaizenprogrammer.com

ここからは、Earthlyがキャッシュの機能として2種類提供しているInline cacheExplicit cacheについて説明する。

Inline cache

ターゲットの成果物であるDockerイメージを個別にキャッシュする。

以下を例としてIzumiSy/go-cleanarchitectureのEarthfile から抜粋。

deps:
  RUN apk add --no-cache build-base
  COPY go.mod go.sum .
  RUN go mod download
  SAVE IMAGE --cache-hint

build:
  FROM +deps
  COPY . .
  RUN go build -o build/go-cleanarchitecture main.go
  SAVE ARTIFACT build/go-cleanarchitecture AS LOCAL build/go-cleanarchitecture

image:
  COPY +build/go-cleanarchitecture .
  EXPOSE 8080
  ENTRYPOINT ["/go-cleanarchitecture/go-cleanarchitecture"]
  SAVE IMAGE --push ghcr.io/izumisy/go-cleanarchitecture:cache

上記のEarthfileのうち一番最後の行の SAVE IMAGE --push ghcr.io/izumisy/go-cleanarchitecture:cache の箇所がInline cacheに該当する。SAVE IMAGE コマンドは --push オプションをつけることでリモートのコンテナレジストリにキャッシュとしてのイメージをpushする*2ようになる。なお、キャッシュのソースとなるイメージを別で指定する --cache-from というオプションもあり、キャッシュのpushとpullでそれぞれ別イメージを指定することもできる。

以上のEarthfileに対して以下のコマンドを実行すると、初回実行時はghcr.io/izumisy/go-cleanarchitecture:cacheにキャッシュイメージが作られ、以降は実行時にキャッシュイメージが使用される。

$ earthly --use-inline-cache --save-inline-cache --push +image

Explicit cache

上のInline cacheの例で抜粋したEarthfileのうち、SAVE IMAGE --cache-hintの箇所がExplicit cacheに該当するもの。

deps:
  RUN apk add --no-cache build-base
  COPY go.mod go.sum .
  RUN go mod download
  SAVE IMAGE --cache-hint

Earthlyの実行時には以下のように --remote-cache オプションでExplicit cacheを格納するDockerイメージの名前を指定する。こちらも --push オプションがあればキャッシュがコンテナレジストリへpushされる。

$ earthly --push --remote-cache=ghcr.io/izumisy/go-cleanarchitecture-explicit:cache +image

Explicit cacheはEarthfileを通してひとつしか存在しない。Inline cacheのようにEarthfile中に複数異なる名前でキャッシュイメージを指定することはできず、--cache-hint を指定しているすべてのターゲットのレイヤキャッシュが実行時に --remote-cache で向けられているキャッシュイメージへすべて格納される。

もしEarthlyの実行時にEarthfile内でExplicit cacheが指定されている場合には、Earthlyは一番最初にこのキャッシュを取得するような動作をする(たぶん)

Inline cacheとExplicit cacheの併用

自分が試した0.6.2時点では、ソースとしての併用はできるが--pushオプションで両方をpushすることはできない。

なので、自分のCircleCIの設定ではコンテナレジストリへのInline cacheイメージのpushはローカルから実行するようにし、CI上ではExplicit cacheのみをpushするようにしている。--use-inline-cacheのオプションはExplicit cacheと併用できる。

jobs:
  integration-test:
    machine: true
    resource_class: large
    steps:
      - run:
          name: Setup docker with ghcr.io
          command: |
            docker login ghcr.io --username "izumisy" --password "$DOCKERUSER_TOKEN"
      - run:
          name: Setup earthly
          command: |
            wget https://github.com/earthly/earthly/releases/download/v0.6.1/earthly-linux-amd64 -O /tmp/earthly
            chmod +x /tmp/earthly
            /tmp/earthly bootstrap
            /tmp/earthly --version
      - checkout
      - run:
          name: Run earthly
          command: |
            /tmp/earthly --use-inline-cache --push \
              --remote-cache=ghcr.io/izumisy/go-cleanarchitecture-explicit:cache \
              +integration-test

ローカルからのInline cacheイメージのpushをするコマンドは次のような雰囲気

$ earthly --push --save-inline-cache +images

*1:前回の記事で「あったらいいのに」とか書いたけど冷静に考えたらEarthlyの思想的にはありえなかった...

*2:ちなみに--pushオプションがなくてもローカルにはキャッシュが作られる