先週末にmidjourneyでの作画をやってみて遅ればせながらAI画伯の可能性を感じたので、midjourneyのコマンドなども少し勉強しつつ、リリースされたばかりのVersion 5も試してみました。
使用したプロンプト
Highly advanced autonomous driving technology is introduced, greatly alleviating traffic congestion in Shibuya and Shinjuku.
先週出力してもらった「近未来の東京」をコンセプトにChatGPTから出力された文章です。どうやって作ったか興味ある方はプロンプトの作り方について少し調べていただくと良いと思います。プロンプトとしてはもっと色々指定してあげればやりたい方向に近づけるのが面白いところ。
v4の画像
v5の画像
Bing Image Createrとは?
midjourneyやStable Diffusionを触っている間に、Canva Createが開催され、Open AIとの提携を機にテンポよくAI機能のリリースを続けているマイクロソフトからはBing Image Createrが公開されました。CanvaもText to Imageの機能が発表され、すでに使えるようになっています。ちょっと試してみたものの、まだ本気出してない気がしたので、今回は上記の同じプロンプトを使用したBing Image Createrの作例のみ紹介します。
プロンプトに細かい指示を入れていないので、自然言語での各々の解釈が露骨に出ていると思うのですが、Bingは実写、現実に近い形の出力を好むようで、似たテイストのものが出来上がりました。共通して、背景のイメージがエリア情報を反映しているのか、東京の繁華街の雰囲気、いうなら新宿通り沿いの歌舞伎町入り口付近のイメージを醸し出している気がします。近未来感はないですけど。
Stable Diffusionの出力結果は?
Stable Diffusionについてはまだmodelを独学中です。触ったこと自体はありまして、Colabを使用してWeb UIを使いました。ただ、環境構築で参考にさせていただいたブログが人物(アニキャラ)だったこともありまして、#Chilloutmix とか人物に強いセットアップになってしまいました。そうこういじっているうちに無料でGPUを使える上限になったので、今度は手元のM1 Macで環境構築出来ないものか、とHomebrewしながら苦戦しているところです。.yaml がないと言われ、割と良き先生になってくれるChatGPTの回答もイマイチ的外れみたいなので、どうやって環境構築させるのか?あたりで躓いてます。
あとがき
作例はTwitterより私のInstagramの方にアップする事が多いと思うのでよろしければ覗いてみてください。
そもそもDTMの支援になると思ってGenerative AIを触り始めたのに、ちょっと遠回りしている気もしますね。。コード進行とか歌詞とかアイデアはもらったのですが、実際に音に出すと“the 平均点“みたいな作品になってしまい、正直あんまり面白くないんですよね。。もう少し面白い使い道を探してみたいと思います。
コメント