「webtech」カテゴリーアーカイブ

【デジタル】matomo雑記vol.3:自分のデータを独立させるためにWPのプラグインでmatomo入れてみた

こんにちは!東京は、この時期としてはありえないような雪模様。皆さん、いかがお過ごしですか?うちは、子供たちとAMは評判が良くはなかった「Terminator Genisys」をAmazonプライムで見てました。今は、雪で遊んでいる感じ。が、やんで来ちゃいましたね。。。

さて、今日は本体のmatomoとは別にプラグイン版のmatomo「Matomo Analytics」を入れることにしました。というのも、会社のメアドを使ってCloudの方のmatomoを実装し、そのアカウントの一部を実験的に使って自分のWord Pressの分析をしながら学んでいたのですが、DBを会社の契約のサーバーに入れると色々面倒だなぁと思って。実際に、これから活用に向けて有志で集まってこの活用方法の模索を進めていくことになるのですが、それに当たっても僕個人のサーバーで実験するのであれば何ら問題なく色々できると思っているのもあります。さすがに、会社のサイト分析データでの実験は怖いなぁとか思う部分もあって。別に、僕が始めるプロジェクトで基幹システムに関わる訳でもないので考えすぎかもですが、でも予感的にこのツールは今後の構想に於いては主軸を担う可能性もある訳で、DB上におけるデータの持ち方含めて自分のサーバーにデータおいた方が融通効くってのが一番かと。

ちなみに、今回のデータについては現在メインドメイン用に借りているサーバーの中にあるDB上にデータを溜め込んでいくことになりそうです。フルレポーティングのアドレスを見ると、Word Pressのディレクトリー直下の「/wp-content/plugins/matomo/」となっているので、データ自体は当方のサーバー内で完結している模様。まだ、コード読み込んでないからどこに入ってるか知らんけど٩( ᐛ )و

Word Pressでのサマリーは、こんな感じですごくシンプル。JetPack でも日時推移は見れるんだけど、こちら本体のmatomoと同様「デバイス」「OS」「ブラウザ」「国」などが一望できるのが楽チンでいいなと。詳しく見たい場合は、上部のView full reporting をクリックするか、左のカラム下部にある「Reporting」を見れば確認可能です。レポート画面は、通常のmatomoと同じ作り。ただ、Word Pressに閉じたツールになるので簡略化されていて「Funnels」「Forms」「Media」「A/B Tests」「Heat Maps」「Session Recordings」の項目がありません。個人的に、「Funnels」「Forms」「Media」についてはWP版でも実装しておいた方が有用性高いと思ったのでしが、プラグインだとこんな感じなのかもとか。あと、ビューワーないで、管理者などの項目がないため、閲覧ユーザーを増やすことはできません。この視点で言うと、企業サイドがアクセス管理ツールとして活用するのであればプラグイン版ではなくフルバージョンを活用した方が間違い無いかと考えます。とはいえ、User FlowやTop Pathを見ることができませんが、トランジションまでは見ることができるので詳細分析をする必要のないものについてはこれで十分かなぁとも。実際、個人の記述サイトでそこまで詳細分析する人いませんもんねw。あ、あとビジター部分のCohort分析も削除されてますね。これも、特に使わないかな。僕は。ちなみに、フルバージョンにしたいのであれば年契費用を払うことで上記の機能をWPプラグインで活用することも可能みたい。ちなみに、フルバージョンの機能を使うにはCLOUDの本契約をするかオンプレミスでプレミアム契約しないといけません。

ちなみに、既にMatomoをオンプレミスもしくはCLOUDで使っていてそのデータを連動したい場合は「WP-Matomo plugin.」を入れる必要があるとのこと。ここ、間違わないようにー♪( ´▽`)

【追記】現在、なぜかTime Zoneがずれているようでデータの時間が2時間くらい後ろ倒しになっています。可能性として、GTM 経由で入れているMatomoのタグとバッティングしているのではないかと言う疑惑があるため、一旦もともと入れていたタグは休止にしてみました。

【デジタル】IFTTTから来たメールで、Instagram Apiのこれからを知ったという話

こんにちはー。今日も、matomo を触って色々考えているのですが、これからの記述は、IFTTT とInstagramの話。SNS 関連は結構APIの変更があるイメージですが、Face BookとInstagramはその変わり方が結構激しいのでちゃんとキャッチアップしてないとダメだなぁという感じです。このことを知ったきっかけは、IFTTT から届いたこのメール。

Hello, Due to updates Instagram is making to its API, there are a few upcoming changes to the Instagram service on IFTTT:

・The New photo by you in area trigger will be removed. The New photo/video by you and New photo/video by you with specific hashtag triggers will not be affected.
・You will need to reauthenticate the Instagram service on IFTTT. You will receive Instagram is offline emails and/or push notifications with further details.
・Instagram will be removed as an IFTTT profile provider.

We appreciate your understanding.Messeage from IFTTT

簡単に訳しておくと、

  • 「新規写真投稿時のエリアを連携させたトリガー」が削除。「ハッシュタグを連携させたトリガー」は継続。
  • IFTTTサイトで、Instagramサービスを再認証する必要あり。 Instagramから、オフラインのメールか詳細が記載されたプッシュ通知で再登録の連絡が入る。
  • Instagramを、IFTTTのプロファイルプロバイダーから削除します。

という感じです。ちょっと、意訳気味ですが。多分、通常投稿時の連携は特に問題なく続けられるのだけど、Instagram API側のエリア情報が個人特定につながるなどの理由で封鎖される影響でエリア情報が入ったDB非公開になり、その結果としてArea triggerが使えなくなったんじゃないかなぁと思っています。次に来ているInstagramサービスの再認証ですが、これはFacebook for developer でも昨年提示されていたこの内容が反映される結果ではないかと思います。

Launch of Instagram Basic Display API

もともと、旧Instagram APIの完全削除→Facebook Graph API への移行が2020年3月2日に予定されていたのですが、おそらくコロナの影響でローンチが遅れて3月末に変更になりました。この変更で、旧Instagram APIで実施した認証が一旦白紙化になるので再登録してくれって話なのかなぁと。ちなみに、ここを読み込むとこういうことが書いてあります。

Deprecated a number of data fields such as location data and follower counts to minimize data exposure and ensure safety and privacy on our API. Launch of Instagram Basic Display API

ここで、「位置データやフォロワー数などのいくつかのデータフィールドを非推奨にしました」と明言しているので、この関係でエリアトリガーは使えなくなったことがわかります。

最後の、プロファイルプロバイダーの部分ですが、これも先の文章内で書かれていた”Separated profile and media information into two distinct permissions to apply for. (アクセス許可を、プロファイルとメディア情報で分離します。)”という部分にかかっているので、IFTTT はあくまでメディア部分のみの連携に止めるということだと思われます。

Face Bookサイドの技術ブログでの記載で、期日は3月31日となっていましたので、このタイミングでパーミッション切り直すの忘れないようにしないと連携が切れそうなので忘れないようにしたいと思いますー♪( ´▽`)

しかし、あれですね。本当にきちんと大事な情報をキャッチアップで来る体制を取っておかなきゃなーと思ったのが今回の話で「IFTTT のメルマガ登録しておいてよかったセーフ!」ってきもちです。主要メディアの開発者向けブログは、やっぱ定期巡回しよう。

【デジタル】Matomo雑記vol.2:凄い見てる人がいると思ったら、自分だった話とか

こんにちは!今日も、ちょっとづつ設定中です。「おお、なんか知らんけどすごく見てくれている人がいるー!」と思ったら、自分でした…..。で、Matomo ってすごくシンプルでいいなぁと思ったのはダッシュボードに右上にある歯車マークが設定の入り口になっているのですが、ここの一番下にある「自分自身のビジットを除外( Cookie 使用 )」の青文字のところをクリックするとその時に見ているブラウザクッキーを除外して分析してくれます。まぁ、なにぶんクッキーでの判別なので、毎度作業ってことになる可能性もあるんですけどね( ; ; )

一番下の、「自分自身のビジットを除外」項目の下部の青文字をクリックすると自分の行動データは反映されなくなります!

さて、今日はこれいいなぁと思った機能をいくつか順を追って書き出します。基本的な分類は


  • ビジター:GAでいうところのオーディエンス
  • 行動:どこから入ったとか、アクション起こしたのかとか
  • 集客:所謂流入元
  • 目標:コンバージョン設定と確認
  • Funnels:上記の目標設定にジャーニー設定を加えた行動検証
  • Forms:使ってないので、また今度よく見てみる
  • Media:これも設定してないけど、どうも再生トラッキングっぽい
  • A/B Tests:その名の通り、ABテスト
  • Heatmaps:ヒートマップまであるのかと!
  • Session Recordings:エントリーページ決めて、レコーディングするみたい
  • Custom Reports:読んで字の如く

ということで、かなりボリューミーな感じです。これ、使いこなせるのかって感じwというか、中途半端に日本語訳されてるんだけど変に訳さないで英語のままでもいいのではとか思う部分も。というのは、指定が英語でされているのに指定されている場所が日本語になっていると「それどこのこと?」って現象が。顕著な例は、Funnelsの最初の設定時に英語で

Funnels Overview
There are no active funnels, a user with at least admin access can configure and activate a funnel when they create or edit a goal.
ってのが出るんたけど、”goal”が翻訳されているので一体どこを指しているのか全く最初わからず。結果的には、目標設定時にFunnelの設定を行うことで、Funnelが起動するという仕組みでした。ということで、上記でいうところの「goal=目標」が正解ということ。これわからんよー( ´Д`)y━・~~

さて、この辺が全体概要で今日は「おお、これはいいなぁ」というポイントをご紹介。ビジターの項目で、ビジットログは前回の記事で紹介しましたが、今日は「デバイス」と「ソフトウェア」。この二つを挙げた理由は、ヴィジュアライズ。パッと見るだけで、直感的にアクセスの量的把握が行えるというのがみそ。これは、GAにも当然ある機能なんだけど、個人的にUIがこちらの方がわかりやすい。細かいデータがGAの場合は、一気に見れてそれはそれで捉えやすいんだけど、Matomo 見て何じたのは「まずバックリと比較するのであれば、このシンプルな見せ方なんだな」と感じさせられました。詳しい資料って、色々知ることができていいんだけど、領域が広がるほど欲しいデータが見つかりづらくなるわけで、俯瞰して見たい時にはこのレベル感の方が分かりやすいのかと実際のサイトを見て感じた次第です。

■ビジター→デバイス

デバイスの項目は、「デバイスタイプ:ガジェットの種類」「デバイスのモデル:機種名が特定できるものは機種名、そうでないものはざっくりジェネリック扱い」「デバイスブランド:デバイスのメーカー名」「画面解像度」の4項目がデフォルト。そういえば、この画面解像度って意外に重要なポイントだなって改めて感じました。

■ビジター→ソフトウェア

この項目は、「OSのバージョン」「ブラウザ」「環境設定:OS+ブラウザ+解像度の組み合わせ」「ブラウザエンジン:HTMLレンダリングエンジンのこと」の4項目がデフォルト。サイト制作視点では、実はブラウザそのものよりTMLレンダリングエンジンが何なのかということが重要な部分なので、開発者視点で作られているなと感心しました。

今日のところは、上記二つの特徴についての説明でやめときます。眠いし。次は、「行動」に焦点を当てて記事を書こうと思っています。ここの部分も、かなり深いですよー!いや、ほんと面白い。このツール。

【デジタル】matomo雑記vol.1:分析ツールとしてMatomoを導入することにしました

こんばんは。また、更新滞っていました。と言うか、下書きの途中の記事は複数あるのですが、色々考えて推考していると「違うかなぁ」とか止まっちゃってる感じでして。ちょっと、いったんリセットして記事を連載的に書こうと思ったんですが、 丁度新しいツールを使い始めたので自分で使ってみた記事を続けて書こうと言うことで。一昨日より使い始めたつーる「Matomo」についてこれから当面ボチボチあげていこうと思います。

もともと、Matomo を使う事になったきっかけはBRAVE。ご存知の通り、このブラウザは一切の広告とクッキーを受け付けません。このアクセスを見ようと思ったら、GAは笊。という事で、なんかありますか?って質問して帰ってきたのが、Matomo。とはいえ、実際にMatomoでデータが見えるのかというと表示には出てこない。が、多分「ここだろうなー」というおぼろげな輪郭が見えるのでこれを見ることが出来ればそれでいいかなぁってところです。ちなみに、実装はGTM経由で全体ビューに設定するだけなので簡単です。あと、驚くべくは実装後すぐにリアルタイムが動き出します。ここに、感動w

https://matomo.org/

あと、GAってGoogleのクラウドサーバー上にため込まれたデータの一部をサンプルデータとして閲覧するのみのツールですが、Matomo はサンプルではなくRaw Dataが閲覧できるというのも魅力。特に僕が魅力を感じているのはこの部分で、かつUSERレベルのアクティビティについても可視化されるという、なかなか今まで見たことがないようなUIが展開されていた事にも目を奪われました。だって、これ一番見たかったデータですからね。あくまで、指定したサイトに閉じた話にはなるのですがジャーニーを可視化してくれるってすごいなーと。僕は、単なる接触データには意味がないと思っていて、行動から導き出される傾向値を束ねたうえでコンテンツを作成し、導線設計をする事がコンテンツコミュニケーションを組み立てるうえで最も重要な要素だと感じているため、これを見ることが出来るツールに出会えてちょっと興奮気味なのです。

IPは、特定につながるのでマスクしています。みていただくとわかる通り、サイト内でのアクティビティの履歴が見ることができるんです!

僕は、所謂リターゲティングやDSPでの配信には全くと言って興味がないというか「あんまり意味がない」と思っている人なのですが、ユーザーサイドの行動を精緻に分析し、そこから嗜好を読み取り、それをクラスター化したうえで正しくクリエイティブやコンテンツを導きたいのでこの行動データが見れるというのは宝を掘り当てた的な感覚なんですよね。

今日は、入り口の話なのでこの辺で。

これから、一時Matomoを使っていく中での発見などを定期的につづって行きますので、ご興味あればご覧くださいなー(‘◇’)ゞ

【デジタル】今回のサーバー移転の顛末について

こんばんは!まだ、リビングのPCは調子が悪くてあんまり記述向きな状態ではないのですが自分の部屋でやると画面が小さいんですよね。そういうのもあって、さっさと買い換えればいいんですけどもしかしたら今年新しいiMac出るかもなーとか色々考えすぎちゃって何も進まないというジレンマ。あと、古いiMacがすでに部屋に転がってて「これどうやって処分を」とか(梱包してアップルに送ればいいだけなんだけど、梱包がめんどくさい人)壁が山のようにあって。あと、どれにするのか悩むんですよね。Mac miniでもいいのでは、とかApple Storeの人に言われて心が揺らいだりね。まぁ、一回買うと5年くらい使うので本当に悩むんです。いつもだと、あんまり悩まないでパパッと仕事含め決め込む僕ですがMacの購入だけはいつもこんな感じで煮え切らずに毎日を過ごしているというね。

さて、余談からスタートですが今日は今回のサーバー移転の話。遡ること、1年ちょっと前。ふと思い出して、WordPressを再開してみたんですね。かなりの期間放置してたんだけど、お仕事で会社のWPを見直して再構築したいなーと思って、折角なので自分のところを一旦大胆に作り直してからその実験結果を持って仕事に生かそうと考え作業にとっかかりました。まずは過去記事の洗い替えをしつつ、新規記事をボチボチ上げていたんですよね。そしたら、程なくしてというか丁度1年前くらいにPHPの整合性で問題が発生。WPって、かなり親切な設計で古いバージョンのサーバーでも使えるよう数年前のバージョンのスペックでも使えるよう配慮してくれているのです。ただ、プラグインやテーマはこの限りではなく色々ズレが発生。ご存知の通り、PHPはバージョンによって文法が変わるんですよ。その所為で、最新バージョンの場合どうしても表示に影響が出る。なので、当時できる一番新しいことをということで模索しながらテーマなども選んできました。が、次に起こった出来事でサーバー移転検討が現実的になりました。

こればっかりは、どうにもならないんですよ。というのも、当時の僕が借りていたサーバーは10年以上更新されていない感じでして。ただ、普通にドメインを維持するためであれば、それでもいいのかなぁと思って使っていました。とはいえ、実際にきちんとWord Pressを使ってサイト運営しようと考え始めていたので「これではダメだ」ということで運営会社とも適宜連絡を取りつつその先を模索していました。当方が借りていたのは、CsideNet。2002年に立ち上がった、当時としてはかなりセキュリティにも気を配り対応も早いサーバー運営会社であったと記憶しています。というのも社長の小尾さんがやり手で、バリューコマースのホスティング部門を買い取ったりで結構名を売っていたんですよね。その関係で、本社ビルが千代田区三番町に建つほどまでになった会社です。が、サーバー事業は一旦立ち上げるとそこから先に大きく収益を伸ばすことができるものではなく維持が主な業務となるためコスト競争の中で徐々にユーザーが移転して行き、結果として事業縮小となり今は本社をまたサンシャインシティに移行したのだろうなーと感じております。デジタルって、本当に弱肉強食ですからね。

とまぁ、そんなこんなでSSL対応も難しいし、PHPの更新も予定していないという回答だっだので移転をすることに。ただ、ここからが大変でCsideNetさんが事業縮小した関係ですが、とにかくレスポンスが遅い。専用フォームからメールを送っても、2週間レスなしとか、ざら。そんな感じだったので、実際にサーバー移転が出来そうだだとなったのは11月ごろ。そこからも色々時間がかかって、サーバーロックが外れたのは1月末ごろでした。

さて、この時に移転を考えていたのはさくらインターネット。こちらも、CsideNet以上に古くからある有名なサーバー会社。今となっては、こちらはトップ10常連の雄。業務関係で取引先の企業も活用していることもあり、大丈夫だろうと思って準備のためにサーバー立ててデータ移行を開始。問題なく動いたので、本格的に移転しようと思ったのですが、この時点でちょっと気になることが。FTPツールで入ると、契約先がざっと見れちゃうんですよ……..。まぁ、会社名をフォルダ化している企業に限った話ではありますし、フォルダの中までは権限があって入れないのですが「一覧で見れるって、どういうこと?」という感じでちょっとした違和感を感じていました。その後、ドメインのロックが外れたという連絡を受け「よーし移行だ!」と思って移行手続きをしてもDomain StatusがclientDeleteProhibitedなので出来ないと。何度やってもダメなので、さくらに問い合わせると「弊社の仕様上、Whois情報のステータスが「ok」の場合、転入手続きを進めることが可能です。」という回答。Csideにその旨を伝えると、「先のメールでもお伝えいたしました通り、現状のドメインステータス「clientDeleteProhibited」はドメイン削除を禁止しているだけでドメイン移管の妨げにはなりません。移管先事業者様の処理上のご都合かと思います。なお、ドメインステータス「ok」は危険な状態ですので、弊社の権限では変更が許可されておりません。」という回答。

両者の答えが食い違うので、一旦Csideの話を正として、丁寧に調べてみたところ一時期話題になっていた「ドメイン名ハイジャック」からの削除防止のためにこのような設計しているのではないかということがわかりました。この時点で、「セキュアではないかもなぁ」ということで既に入金はしていたのですが急遽オルタナティブな契約先を検討。結論として、今回今移転したXserverさんに落ち着きました。ディスクスペースを200GBにした際のコスト感と通常契約でRAID構成が付いてくることも大きな要因の一つでした。何せ、あまり更新してなかったとはいえ2001年のドメイン取得からのデータなので、20年分なんですよね。これを飛ばすわけにもいかず。あと、おまけでドメインが一個ついてくるのも魅力でした。これは、裏ドメインとして使うのでここでは秘密ということで!あ、忘れてましたがPythonの3系統が使えるのも。さくらインターネットは、2.7のみなんですよ。

まぁ、そんなわけで今は落ち着いてサーバー使えています。まだまだ、ボチボチ整備しながらなので本格稼働はちょっと先ですが記事の記述は適度に進めて行こうと思います。会社のサーバーアップも、まぁまぁ大変なんですが無理なくね。

【DIARY】あけまして、おめでとう御座います。

明けまして、おめでとう御座います。ここのところ、記事を書いていなかったんですが実は理由がありまして。というのも、元々いまドメインを置いているサーバーが10年以上更新されておらずという状態で。

とはいえ、単にコンテンツサイトやってるだけだったらこれでもいいのかなぁと思って長らくお世話になってきたということもあってずっと使っていました。しかしながら、WordPress側のここのところの更新ラッシュでいよいよPHPのバージョンが合わなくなってきたというのが今回の異動の理由。ちなみに、今のサーバーのPHP バージョンは5.2.6。現在の最新PHPは7.3。WPはそれでも後方互換性をある程度キープしていてくれてるんですけど、昨年のアップデートで最低5.6.20が必須となりまして。本体の更新ができなくなったことが移動の理由です。ちなみに、当方が契約しているサーバーのスペックは下記の通り。ある意味、14年前のサーバーがいまだにメンテナンスできちんと動いていたという事実にはサーバー会社への敬意を表したいです。

今使っているサーバー
ServerName:em008.cside.jp
CPU:Pentium(R) M processor 1.73GHz
MEMORY:2.0GB
OS:Debian
WebServer:Apache2.2.34
MailServer:qmail
運用開始日:2005年6月15日

あと、もう一つの理由がSSL/TSL対応。最近、Googleのみならず、ブラウザサイドでもHTTPSとならないサイトを「危険なサイト」とみなす傾向が強くなってきているという印象があります。現サーバーとこの辺のやりとりをして見たのですが、「今後SSL化する予定はない」という回答をもらったことも中長期的にみて検索ランクなどの大きな影響を与えると考え決断の後押しとなりました。僕が独自ドメイン「kluv-depth.com」を取得したのは2000年5月18日。なんと、間も無くドメインを取得して20年になるんですね。感慨深い。そのころ、まだドメインに関してはカオス状態で僕自身も5つくらいのドメインを取得していました。本名を活用していたドメインについては、今となっては観光地化した地域のドメインとして使用されていたりして時代を感じます。あの当時、ドメインを取得するっていうとなんだか難しくてみんな動かなかった感じで取得したドメインを高値で売り捌くという案件も多くあった気がします。

続きを読む 【DIARY】あけまして、おめでとう御座います。

【デジタル】IFTTTを使ってTwitterのアーカイブを作成してみた

個人で使っている分には、特に必要ないかもしれないんですけど僕の場合業務におけるデジタル全般を見ていかなければならないと言う課題があり。Twitter Analyticsの機能だけではどうしても追いきれない部分があるんです。と言うわけで、今回もIFTTTでそう言う機能がないか探してみることにしました。もしなければ、作ればいいしなーと言うことで。

IFTTTログイン前の画面、前に比べてシンプルで可愛くなった気がします。

アカウントをお持ちでない方は、まずここでアカウントを作成。ある人は、Sign inしてみましょう。そうすると、「こんな感じのアプレットあるよ!」って言うトップ画面が。ここで、Twitterの画面を選択してどんなアプレットを見ていくことになります。あとで、詳しく記載しますがIFTTTはツールやプラットフォームが公開しているAPIを直感的につないで動かす統合ツール。”IF This Then That“の略で、「もしこれの後がこうなったら?」っていう願いを叶えてくれる感じです。いや、ほんと使いこなすと便利です。公開されているアプレットを単に使うだけでもいいのですが、構造を理解して自分でアレンジメントできるツールなので「ちょっと足らないなぁ」と思ったら構造を理解した上で自分でカスタマイズしたアプレットを作ってしまう方がさらに楽しくなります。僕自身、公開されているものをアレンジして自分なりに使っていたり。当然ですが、各社がIFTTTに公開しているAPIの範囲に限るのですが通常ディベロッパー登録しないと使えないAPIを手軽に設定してつないでいけると言うのは極めて有用性の高いサービスだと感じています。

こちらが、Twitter版のトップページ。僕が選んでいたり作ったりしたアプレットは冗談に、”Try something new…”より下にあるのがまだ使ってないアプレット。通常は、この下段部分から自分がやりたい事を元に選択します。

過去記事で、TwitterとInstagramをつなぐ際にIFTTTを使ったものをあげていますが、あの時から色々試してみて理解も深まりました。改めて思ったのですが、こういうサービスはやっぱり深いところまで理解した上で使った方が色々いいなと改めて。ちなみに、Twitterフォロー御礼の自動返信もこれまでアップされているアプレットを使っていましたが自分で日本語版を作成して入れ替えました。

上の画面への入り方ですが、IDとPassを入力しトップの画面が出たらTwitterのボタンというかバナーというかそういうのをポチッと。そうすると、Twitterに関するアプレットを集めたページトップに飛びます。今回は、自分の投稿のアーカイブ化が目的なので”Twitter → DB”となるシステムを掘り起こし。クラウド型のDBとして一般的なものとしては、Google DriveやGoogle Spreadsheetになるので探してみます。このサービスでもう一つ「いいなー」と思っているのはアプレットバナー一つ一つがピクトグラムで描かれているためざっくり繋ぎたいサービスがつながっているかが確認できる事。これって大きいなと。

こんな感じで、シンプルな画面で説明文とピクトグラムが並んでいます。ここから選ぶだけ!左下に書いてある数字がユーザー数で、右側のピクトグラムがつながっているサービスです。わかりやすくていいですよ。

さて、今回ですがTwitterのログを書き出すことが目的という事で探してみるとやっぱりSpread Sheetに行き着きました。最終的にCSVに加工してつい気分を加えた上でPythonなどで分析することも見越しているので、その視点でもこの方法が間違いないなと。

ちなみに、僕は設定してしまっているので”Connected”の表示になっていますが、最初はちょっとだけ設定画面が入ります。前に投稿したポスト”【デジタル】InstagramとTwitter連携でIFTTTを使ってみた“でも書きましたが、TwitterとGoogle双方のアカウントをIFTTTと紐付け許可して動かす感じです。もちろん、両方のIDとPassが必要となりますので業務でお使いの方は間違いないよう。間違って、Google側を自分の個人アカウントと紐付けしちゃうと後が面倒なので。ここが完了すると、下記のようなデータがSpreadSheetに自動で上がるようになります。便利!

ファイル名は、”Your Tweet”でちょっと味気ないけどどんまい。また、別の機会にこの裏側の仕組みと自分で作ってタイトルとかを書き換える方法などアップするようにしますね!ではでは。

【デジタル】LINEスタンプのサブスクが伝えるもの

僕は、なんども記述の中で「創り手に対する敬意」の話を書いてきました。なぜかというと、自分自身が制作上がりで、その制作は目に見えていない多くの人の労苦と汗と創造力の上に成り立っているものだと知っているからです。だからこそ、僕たちは「オーダー」するのではなく「お願い」するのだという気持ちを指すれてはならないと考え行動しています。

さて、表題の件。先日記述したLC19のお話の中で、LINEスタンプがサブスクになる話を書きました。大した扱いにはしてないのですが還元部分が気になる話はメモっていたかと。というのも、別のエントリーで音楽のサブスクがかなり酷い事になっているという記述を書いた後のお話だったから。しかしながら、今度のLINEスタンプの話はそれ以上の衝撃を感じさせてくれました(苦笑)。

190630_sp,ちゃんと寝ろという時間ですがアップしてみました。
深夜アップなんで、真っ暗な画面。相変わらず不健康……。
分配額の変更について 『LINE Creators Studio』でスタンプをつくった場合に限り、クリエイターさまへの売上の分配額が0円になります。 『LINE Creators Studio』をご利用中のみなさまの声をもとに、申請されたスタンプをより早くお使いいただけるようにするため、また安定したサービス提供のため、クリエイターさまご本人のスタンプ無料化(後述)や審査体制の強化、ならびにサーバーの増強といった改善を行うべく、今回の変更を決定いたしました。LINE Creators Magazine

0円???((((;゚Д゚)))))))

何がすごいって、還元放棄しましたよ。いや、一応今までアップしたものは還元するみたいなんですけどね。あと、web版LINE Creators Market経由での投稿は今まで通り還元。多分、利便性からアプリ版の「LINE Creators Studio」経由のものもそれなりに多いのではないかと思うのですが、規約をきちんと把握せずに投稿すると「分配金0」になるなというお話です。まぁ、一応前提としてうちわで使いやすいようにプロセスを簡略化したアプリだからという事なのでしょうけど、職人も使ってるだろうなーと。

もう一つ。結果論ですが、web版LINE Creators Market経由でアップしたとしてもサブスクに掲載されたら圧倒的に分配金が下がるという事実については何も説明されていません。サブスクモデルの基本的な分配の考え方は、「全売上金×(各権利者のコンテンツの総利用回数/すべてのコンテンツの総利用回数)」となるわけで単価100円のスタンプについて一時金で受け取るのかサブスクで通年で受け取るのかという選択ですが、相当な人気クリエイターではない限り一時金の方が圧倒的に収益率が上がるような気がします。どのくらい、みんながプレミアムに登録するかにかかっていますが。本来、この辺の説明を丁寧に行うのが筋だと思うのですがLINE社は特に創り手に敬意を払っていない為なのか、このサブスクモデルの分配金に関する説明をサイトでは一切していません。LINE MusicのFreemiumというモデルで再生される部分についても、原盤使用料払う気ないのではないだろうかと想像してしまいます。

蓋を開けてみないとわかりませんが、良質な作品を供給するクリエイターがサブスクに参加しなければそもそも新しい良質なスタンプがサブスクに反映されないわけで、結果としてはこのプロジェクト自体がフェイドアウトする事は想像に難くありません。本来あるべき姿は創り手とプラットフォーマーが「同じテーブルで会話し未来へ進む」試みがなされて初めて市場が開けると思うのですが、このようなプロセスを経ていないことが根幹的な問題だと感じています。生活に入ることを前提としている企業だし、元々の立ち位置に悪意がないことも分かっているだけにきちんとこの辺を丁寧に対応してもらいたいなーとか。もはや、インフラ化していますしね。LINE。

【追記】折角なので、スタンプを販売した際の収益額の計算などをしてみたいなとおもいました。

LINEアプリ内のスタンプショップでの売り上げ発生の場合
  1スタンプ=50LINEコイン=88円
  88円×0.35=31円
 ※1LINEコイン=1.76円 , (全売上-Apple or Google手数料30%)*50%=0.35
と言うわけで、実際に売りを立てて生計を立てると言うにはなかなかハードな現実があることがわかります。この計算式で思ったのですが、このシステム自体はかなり良心的な割り戻し設定だと思いました。制作者に35%ってなかなかないですもんね。これが、サブスクになるとどうなるかと言うこともすごく適当ですがシミュレートしてみましょう。

LINEスタンプをサブスクモデルで販売した場合
【前提計算式】
1契約=240円(学生は120円)
稼働から考え、ざっくり300万人が契約と仮定。うち、学生が4割。
240*180万+120*120万=5億7,600万円

【CASE1】全ユーザーが一人5種のスタンプを活用し、そのうち2,000名が自分のスタンプを活用したと仮定。
  5億7,600万円*0.7*0.5/1,500万*2,000=26,880円
(月次単価:13.44円)

【CASE2】全ユーザーが一人10種のスタンプを活用し、そのうち2,000名が自分のスタンプを活用したと仮定。
  5億7,600万円*0.7*0.5/3,000万*2,000=13,440円
(月次単価:6.72円)

【CASE3】全ユーザーが一人15種のスタンプを活用し、そのうち2,000名が自分のスタンプを活用したと仮定。
  5億7,600万円*0.7*0.5/4,500万*2,000=8,960円
(月次単価:4.48円)


 ※これまでの販売形式の場合:31×2,000=64,000円
これでも、かなり楽観的な数で弾いています。一瞬、「でも、10種くらいで回してくれたら4ヶ月で元が取れるよね!」と思うかもしれませんが選択肢が多くなれば多くなるほど一点あたりの稼働率は下がると言うもので。これまでも、なかなか収益が上がらなかったものが、さらに厳しくなるのではないかなぁと計算してて思いました。ちなみに、お気づきかと思いますが、どのパターンになったとしてもLINE側の収益は月次2億160万でこの計算では固定となるわけで安定収益をもたらしてくれる金のなる木となるわけです。サブスクって、実はシステム側にとってステークホルダーに対するアピール案件になりうると言う意味でユーザーサイドというよりプラットフォーマー側にとって採用するに値するモデルなんです。一番割りを食うのは、創り手というね。

【デジタル】Line Conference2019に行ってきました

2018年6月27日(木)、舞浜で行われたLine Confernceに行ってきました。僕自身デジタルのメディアプランニングにLINEを組み込むことはほぼないのですが、BTLのツールとして別部門で活用しています。その関係で、最新の情報を知っておく必要性があるため足を運びました。2019年のテーマは「Life on LINE」。FaceBookが良く言うONE STOPサービスを、LINEもやりますよと言うことだと受け取りました。この思想を支えるのは、「Offline」「Fintech」「AI」の三つの要素。

代表取締役の出澤 剛氏。J-ScoreのLINE版、「LINE Score」の説明。

「O2O(Online to Offline)」を「OMO(Online Merges with Offline)」という言葉で進化的に置き換えてましたが、現実僕らデータを触っている人たちの中ではすでに境界線は無くなっていることもあるので特に新しくもないので割愛。メディアの世界では、もはや数年前に起こっている出来事ですし。Fintechの話で、CashLessの話をしていましたが、これは「資金移動業者」として出来ることを最大限活用していくという工夫の話かなと。出澤氏が説明した「Line Score」は既出の「J-Score」のLINE版ですが、SNSという個人情報の塊と信用情報が一緒くたになるという意味では、ちょっときな臭いなぁと思いました。同じように信用情報を活用した「Yahoo!スコア」が6月3日に発表した際炎上したことを受けてだと思うのですが「プライバシー」に十分配慮しているということを連呼していましたが、規約見るとこんなことが書かれています。

第7条 LINE Score 算出時の質問 1 利用者は、当社が運営するアプリケーション上での質問にご回答された場合、以下に同意したものとします。 (1) 利用者は、質問に回答された内容について、ご自身が有する著作権等の知的財産権その他の権利が含まれる場合、当該権利をすべて当社に譲渡するものとし、当社は、その内容を自由に選択、修正および編集することができるものとします。 (2) 利用者は、質問に回答された内容に係る著作者人格権を、当社および第三者に対して行使しないものとします。 2 当社は、利用者がLINE Score 算出時の質問に回答した内容のうち、氏名、生年月日その他の記述等により特定の個人を識別することができることとなる情報については、その統計結果等の個人を特定できない形態にて、第三者に提供することができるものとします。LINE Score 利用規約
なかなかすごいなと思うのですが、質問の回答に関する権利が全てLINE側に帰属するという「個人の権利を無視した」規約はあまり例を見ないなぁと改めて。僕的には、「プライバシーに全然配慮する気ないな」と思いました。だって、回答した個人から集約した情報の権限を剥奪してしまえば配慮する必要はないわけで、この時点で「お前のものは俺のもの」と言っていますよね。この辺は、担当者というより法務の思想に問題があると僕は考えます。おおよそ、SNS向きではないなと。ということで、個人的には利用しないことをお勧めします。瑕疵担保責任を放棄していることも、かなり気になります。正直こういう「消費者契約法」無視したような規約を平気で記載するSNS企業には驚きを覚えます。

次に出てきた「LINE Talk」は「Skype」や「Lobi」のLINE版サービス。まぁ、アプリ跨がなくてもLINEでオープンな会話できるよってことで「slack」あたりもターゲットに想定しているみたいだっだけど既存サービスの焼き直しなので特に興味は持てませんでした。ゲーム系のチャットはすでにLobiがあり、ここにナレッジがアーカイブ化されている上にすでにゲーム連携が進んでいる中わざわざLINEで新たに立てる意味がないし、そのために結果としてLINEスレッドをわざわざゲーム内で告知するというプロセスが煩わしいなと。slack代替としての活用も、slackの魅力はアプリ連携での無限の可能性であってチャットツールとしては普通。ポータル的な場所でなければならないというのはLINE側の主張であって、ユーザーサイドの視点ではないなという意味で我々メーカーの「プロダクトアウト」の悪弊に近いものをちょっと感じてしまいました。自戒も込めて。この後、LINE NEWSの話やエンタメのワンストップサイクルの話も出てきたのですが同様の感想。既に世にあるサービスのLINE版を作ってLINEに入れましたよ。という話で、ユーザーニーズではないよなぁという印象を同様に受けています。mixiの例に学ばないのかなぁと。

あと、LINE STAMPをサブスクにしたら職人が干上がるとか考えなかったのかとこれにもちょっと残念な印象。

Fintec周りなのですが、デジタル領域における「資金移動業者」つながりで「LINE pay」「NTTドコモ」「メルペイ」3社でアライアンスを組んで「MoPA」というグループを立ち上げたようです。横のつながりにおける認証は、「eKYC(electronic Know Your Customer)」でつないでいくんでしょうね。

この後も、色々発表は続くのだけど「どこかで見たことのあるサービスをLINEに入れました」という話の上になんか中途半端で耳に入らなくなっていったという…..。

そんな中、僕がもっとも心惹かれたというか思いを持って聞いたのは舛田さんが自ら発表した「LINEは改めて検索に挑戦します」という言葉。思えば10年前、僕がフラフラしている時に遊透に誘われてNHNの大崎にあった本社に赴き舛田さんにあった時がまさに彼が検索事業に挑戦していたタイミングで、「質問受けたら30分以内で答える」的なものすごい負荷がかかるサービスを人力でPoCしていた頃。「なんか、すごいことやってんな」と思いつつ横目で見ていたんだけど、結果として検索事業から撤退。そんな時期の彼を見ていたからこそ、この発言には本当に深い思いがあるんだろうなーと。だって、彼はその前は「百度」にいた人だしね。検索事業に対する思いは深いはず。ここは、頑張って欲しいかなぁ。

全体的には、「うーん」と思うことが多かったのですが最後のプレゼンにはエールを送りたいと思った1日でした。

【デジタル】今更ながら、WWDC19の事:特にLook Around

こんにちは。ここのところ、なんだか異様に忙しくて記述できていませんでした。特に、WWDCについては僕的にも「書きたいなぁ」と思う事が多かったんですがタイミングを逸してしまって悩んでいました。が、やっぱり記録はしておこうかなぁと。

iPad OSもiPadユーザーとしては嬉しい限りなのですが、なにより「ああ、これか!」と思ったのが「Look Around」。去る5月12日(日)にThai Festivalに向かっている最中、代々木上原から代々木公園に抜ける道で前を走る車のてっぺんにカオナシの骨格みたいなものがついてる車の側面には、「Apple Maps」の文字が。もともと、登場当初から使えない的な扱いでGoogle Mapしかみんな使わない状態が続いていたのですがこの時「お、コレいいタイミング!」と思ったんですよね。と言うのも、Google Map日本版がZENRINとの契約を終了してポンコツ化したGoogle Mapの代わりに何使おうかと思っていたタイミング。WWDC19では、Apple Mapは更新するだろうなぁと言うことをこのタイミングで察していました。

Photo from https://eftm.com/
なんだか、「カオナシ」みたいでかわいいよね。POPではないけど

忘れた頃のWWDC19では、予想通りの発表。アップされている写真を見たら、やっぱりあの時見た車と同じタイプのものが大写しに出ている画像が海外サイトで確認できました。と言うことは、東京でもすでにデータ取得が始まっていると言うことなので日本でも近くコレが使えるようになるってことですよね!多分、来年のオリンピック目指してローンチ狙ってくるはず。と言うことは、3月末ごろとみた!!そして、昨年MacRumorに出ていた徒歩で地図データ収集していた人の話、もしかしたら徒歩視点でのデータ収集なんじゃないかとも思うので車視点だけではないデータも出てくるのかなぁなんてワクワクしています。

Man Wearing Apple Maps Backpack Surveying San Francisco on Foot

iPad OSについては、みなさん色々書いていますが僕的には直感的に使えていたはずのタブレット端末がなんだか複雑化してきていることにはちょっと懸念が。難しくないようにと思って、僕の実家でも妻の実家でもiPadを推奨して僕が設定してコミュニケーションに活用しているのですが、なんだか操作が複雑になってきてしまったなと言う印象なのです。もちろん、PCとの連動性を考えると「天気」とか「写真」とかいろんなものがTOPで見えるのは嬉しいんですけど、父母世代にとっては「どれ押せばいいのかわからんくなってきた!」になるんじゃないかと言う懸念が。コピー&ペーストがジェスチャーでできるのとか、かなり僕的には便利なんだけど、両親は間違いなく「おわー、間違って消したー!」とか言う事故起こしまくるだろうなと言う絵が目に浮かびます。「シンプルモード」と「アドバンスモード」みたいな選択性になるといいなとか勝手に希望を。

個人的には、今まで使いづらかったWPの編集画面がiPadOSになることでPCのような使い勝手で活用できるのが嬉しい。同じ事が、Photo、Affinity Photoでも言えるので今までいちいちPCで編集かましていた作業がiPadにてワンストップになるのは俄然投稿タイミングが増えることになるのではないかと。まだ、iPad OS版WP見てないからなんとも言えけんけどねw

iCloudが、本格的にクラウドサーバーとして機能することになりそうなことにも注目しています。と言うのも、両実家と写真を共有するにあたって今はLINEなどのツールで送ってるんですけど、フォルダを分けて共有できればかなりシームレスに共有できるようになるかなとか。外付けHDが使えるようになるのも良いですよね。コレができないので、今まで写真や動画はPCで編集していたんですけど、iPadはiPadで暇な時間に触れるってのが良いです。ただ、iPadで映像触るにあたっては注意点が僕的にはあって、僕みたいにテザリングしている人はiCloudとデータ連動していると勝手に転送してあっという間にギガ単位でデータを食うと言うリスクがあることは知っといたほうがいいと思います。この前、高尾山に子供と行って楽しくなっちゃって10分の映像を納めて保存した途端に自動で転送すると言う事故が。この辺は、別の記事でロジック含めて書き起こしますね!

Photo from https://eftm.com/
技術的には、ほぼハッシュ化なのかなと思いつつ技術的にはappleのサーバー内のみで突合できる暗号化だと思うのでバックドアを開けられない限りはこれはかなりセキュアなのではないかと

ある種、ハッシュ化に近いなと思っているのですがSign in with Appleに実はかなり注目しています。これ、僕らが実施しようとしているシングルソース化の新たな壁なんですが、実はこの考え方が僕的には新しいユーザーエンゲージメントのあり方を作るのではないかと期待しているんです。僕が考えるセグメントに、「年齢(一応仕事的には20歳以上ではないと困りますがw)」「性別」「国籍」や「友達リスト」あたりは全く必要なくて純粋に「何に興味があるのか」と言うところに集約しています。大事なのは、それぞれのオンオフを問わない行動履歴が大事なのであってデモグラ界隈の情報ではないんです。その視点で言えば、ここで追える情報で多分十分なんだろうなーって。このハッシュ化的な処置を施されたアドレスがキーチェーンで保管されていると言うのも理想。覚えるの面倒だし。ただ、最後に残るのはiCloudのセキュリティでしょうね。iPhone落とした時の。顔認証にしておけばいいんでしょうけど、僕みたいに生体認証にしてない人間はリスクあるかなぁと。その辺置いておいて、一度この辺の技術については僕が考えている今後のデータ構想にも繋がるのできちんと理解しておこうと思います。

他にも色々あるけど、僕的に気になったポイント抜き出し。ほんでは、また!