並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 181件

新着順 人気順

shi3zの検索結果1 - 40 件 / 181件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

 shi3z181 AI  ChatGPT      OpenInterpreter / AI!shi3z  
  • OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z

    凄いものが出てきてしまった。 ChatGPTの「Code Interpreter」が話題になったが、あれはあくまでクラウド上で動いているだけ。それを模してローカルで動作するようになった「Open Interpreter」は、衝撃的な成果である。 Open Interpreterのインストールは簡単。コマンド一発だ $ pip install open-interpreter起動も簡単 $ interpreter -yこれだけでOK。 あとはなんでもやってくれる。 たとえばどんなことができるのかというと、「AppleとMetaの株価の推移をグラフ化してくれ」と言うとネットから自動的に情報をとってきてPythonコード書いてグラフをプロットしてくれる。 凄いのは、ローカルで動くのでたとえばApplescriptを使ってmacOSで動いているアプリを直接起動したり操作したりできる。「Keynot

      OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z
    • 俺に起業の相談をするな|shi3z


       UberEats  
        俺に起業の相談をするな|shi3z
      • GPT-4使ってみた|shi3z


        GPT-4 ChatGPT Plus(20)使使    A使A   UberEats  : A' : AUberEatsA A
          GPT-4使ってみた|shi3z
        • Midjourney/Memeplex(StableDiffusion)などの画像生成AIで思い通りの画像を出すヒント|shi3z

          このnoteの収益を使ってStable Diffusionを使ったWebサービス https://memeplex.appを公開しました。誰でも無料で何枚でもAI作画をすることができます(そのかわり、混み合ってる時は時間がかかると思います)。 このnoteで学んだことをぜひ活用して、AIによる新しい時代の風を感じてください。 また、本文中にMidjourney、StableDiffusion、DreamStudio、Memeplexなどの言葉が頻出するため、全面的な修正を行うことにしました。StableDiffusionに統一しておきたいと思います。 現状(2022/8/28)は、StableDiffusion=DreamStudio/Memeplexと考えて構いません。Memeplexは将来的にStableDiffusion以外のアルゴリズムもサポートする予定だからです。

            Midjourney/Memeplex(StableDiffusion)などの画像生成AIで思い通りの画像を出すヒント|shi3z
          • LINEの3.6B言語モデルで遊んだら爆笑した|shi3z

            LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") tokens = model.generate( input_ids.to(device=model.device), min_length=50, max_length=300, temperature=1.0, do_sample=True, pad_token_id=tokenizer.pad_token_i

              LINEの3.6B言語モデルで遊んだら爆笑した|shi3z
            • AIを学ぶのに必要な最低限の数学の知識は5つだけ!|shi3z


              AI note AI使 AI AI5 () Wikipedia
                AIを学ぶのに必要な最低限の数学の知識は5つだけ!|shi3z
              • 日本語で指示するだけでAIが作画する無料Webサービスを公開しました #Stable Diffusion|shi3z

                お知らせ(8/27 08:08)新サービスに移行しました。より便利に使いやすくなっています。そしてずっと無料です 開発の経緯はこちら https://note.com/shi3zblog/n/n8a3c75574053 夜更かしをしていたらすごい勢いでStable Diffusionが落ちてきて、あまりにうれしいのでこの喜びを皆様と分かち合いたく、無償で公開します。 使い方低コスト運用ですので、テキストボックスに文字を入力したあと、Requestボタンを押して、しばらくしたらリロードしてみるとどこかに自分の入れたものが表示されているはずです。といっても、今回のStableDiffusionはめちゃくちゃ速いので運が悪いと無視されます(そうしないと無限に電気代とサーバー代がかかってしまうので無料故の措置だと思ってください)。 注意事項Requestを連打しないでください。 腕に覚えのある方h

                  日本語で指示するだけでAIが作画する無料Webサービスを公開しました #Stable Diffusion|shi3z
                • Midjourneyに$40課金して見つけたコツ|shi3z


                  AIMidjourney 5gakyo gakyorepica.com Midjourney LeapMotion 5$30 $10$30/$40 Discord使Gakyo MidjourneyDALL-E使Midjourney
                    Midjourneyに$40課金して見つけたコツ|shi3z
                  • 10年ぶりに一人でWebサービスを作って思ったこと(エンジニア老人会)|shi3z

                    StableDiffusionに対応したGakyoを雑な設計のためわずか数日で10万円くらいのクラウド利用料がかかってしまった。

                      10年ぶりに一人でWebサービスを作って思ったこと(エンジニア老人会)|shi3z
                    • もうみんなプログラマーになれるよ|shi3z


                      20npaka npaka() ChatGPTSwift?SwiftChatGPTnpaka()()
                        もうみんなプログラマーになれるよ|shi3z
                      • 会話という錯覚について|shi3z|note

                        あちらの記事は万人向けに書いているので、行間読まないとわからないようなことは省略してあるのだが、本欄の読者には補足として蛇足になるかもしれないが会話について研究していて思ったことを記しておく。 人工無能と僕記事中にあるように僕がチャットボット・・・当時は人工無能と呼ばれていたが・・・を開発し始めたのは中学生の頃だ。1990年頃だと思う。 きっかけは、中学校にNECのパソコンが導入されて、友達に自分のプログラムを見せる機会を得たからだ。 家で一人でプログラミングしているときはどうも気分が乗らなかったのだが、友達を面白がらせるという動機は子供の頃の僕にとっては非常に強く働いた。 一度、家で人工無能のプログラミングをしたときは、相手が自分しかいないのでわりとすぐ飽きてしまったが、中学になってその熱が再燃した。 きっかけは月刊ASCIIに、AWKの特集が載ったことで、AWKというのは要はUNIX用

                          会話という錯覚について|shi3z|note
                        • コンピュータは難しすぎる|shi3z|note

                          コンピュータは非常に便利なのだが、ほとんどのコンピュータユーザーがその能力の1%も使えてないのではないか。そんな気がするのだ。 というか、コンピュータの能力が人類の進歩に比べて上がり過ぎてる。 おかげでゲームもAIもビデオ編集も手軽になった。 MacBookの新しいCPUが発表されたのだが、40%高速化したというニューラルエンジンを一体全体何に使えばいいのか、人工知能の研究者である吾輩にもわからないので、これを使いこなすことができる人は将来登場するのだろうか。 コンピュータの能力を真に最大限引き出すには、残念ながらプログラマーになるしかない。しかも、マシン語レベルの最適化ができるプログラマーである。 プログラムさえ丁寧につくればコンピュータの持つ潜在能力は圧倒的に高い。だがコンピュータに比べて人間は頭が悪すぎる。 結局のところ、道具がどれだけ進歩しても使う側の人間の想像力が追いつかないと全

                            コンピュータは難しすぎる|shi3z|note
                          • 真実とは何か|shi3z

                            ITジャーリストAyanoさんという人がいて、彼女はすごい人なのである。 何がすごいかというと、ものすごいダイエットに成功した人なのだ。 【大会まで1週間】 秀子先生の緻密な指導と仲間の理解と応援のおかげでここまで来ることが出来ました❗️ のこり1週間悔いのないよう最後まで全力でやり抜きます💪 みなさん応援よろしくお願いします‼️#フィットネスビキニ https://t.co/7lmPdxWeHs pic.twitter.com/2ICgNdXnOK — ITジャーナリスト富永彩乃 Ayano Tominaga (@AyanoTDO) July 23, 2017 そんなAyanoさんと初めて会った時、せっかくだから一緒に写真を撮りましょう、ということになったのだが、Ayanoさんは「だったらこのカメラで撮って下さい」と、中国製の自撮りに特化したスマホが出てきた。プリクラのように、少し目が

                              真実とは何か|shi3z
                            • スクリプト言語を舐めてはいけない|shi3z|note


                                IT ITIT  IT   Ruby  TypeScriptJavaC YARV 
                                スクリプト言語を舐めてはいけない|shi3z|note
                              • プログラミングの超基本的な考え方をド文系の人に説明した動画|shi3z

                                哲学者の東浩紀さんと思想史と近代科学史(特にコンピュータ史)の本を一緒に書いてみようという企画が今年から立ち上がった。 すると東さんがある日の生放送で、「しかし俺も最低限プログラムくらいかける必要があるんじゃないか。しかし最低限のプログラムとは何か」と言っていたところ、シラスの桂さんが「エラトステネスの篩ふるいとかですかねえ」と言っていて、もうエラトステネスと聞いたら黙ってはいられない吾輩が怒涛の勢いで生放送したところ、東さんが一番乗りで入ってきてくれたのでその場でライブコーディングしながらプログラムの書き方を簡単に教えることにした。 https://shirasu.io/t/zelpm/c/shi3zlab/p/20240105163405 プログラミング言語習得のコツプログラミング言語は、言語であるため、マニュアルを頭からお尻まで読んで内容を暗記するよりも、「これってどうやんの?」「こ

                                  プログラミングの超基本的な考え方をド文系の人に説明した動画|shi3z
                                • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

                                  昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

                                    驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
                                  • ド下手な俺が半日だけ絵を練習してみた|shi3z

                                    前回、絶望的な画力のなさでAIといえど俺の伝えたいことが伝えられなくて非常に困ったので、もうここは諦めて絵を勉強することにした。人間、何歳になっても勉強できる! 職業柄、「図」はよく描くのだが、「絵」特に、メカではないキャラクターは苦手だった。 学生時代、「漫画アニメーション研究会(まに研)」の幽霊部員だった時も、キャラクターが描けなかったので馴染めなった苦い記憶を持つ。 しかし、時は大AI時代。 AIさんに思い通りの絵を描いてもらうには、俺だって最低限の画力が必要だということを前回痛感したため、このクソ忙しいのに半日だけ絵を練習した、という話。 色々な本をKindleで買ってみたが、良かったのはこれ。 Kindleで買って感動して、DVD付きの書籍をわざわざもう一冊買い直すくらいハマった。 これは、自主制作のアニメ制作から初めて絵を修行し、最終的にはスタジオジブリの入社試験に合格できるほ

                                      ド下手な俺が半日だけ絵を練習してみた|shi3z
                                    • 予算30万円台の深層学習用PCの買い方|shi3z

                                      深層学習をまじめにやるなら、どう考えても専用のPCが必要になる。 僕は現在、Memeplexというサービスを運営していて、これはさくらインターネットさんから大量のGPUを借りている。借りたGPUは、さくらインターネットの石狩データセンターで動いている。 さらに、ABCIは企画の段階から立ち会って、実際に仕事ではよく使っている。ABCIは5000以上のGPUを擁するGPUクラウド基盤で、その実態はスーパーコンピュータである。 ABCIを使えば、ほとんどの難しいタスクを恐ろしく安い料金で行うことができる。GoogleやAmazon AWSのようなサービスを展開することができない本邦においては、国家が設立し、民間利用可能なABCIは国民にとっての天叢雲剣あめのむらくものつるぎである。 それでもなお、手元には深層学習用のPCが必要だ。しかも一台では足りない。 ABCIがいかに安くても、PCほどの利

                                        予算30万円台の深層学習用PCの買い方|shi3z
                                      • ChatGPTをブロックでプログラミングできるようにしてみた(ソースコード付き)|shi3z

                                        4/19 ソースコードのバグを修正しました 花粉症で午前二時に目が覚めた。 ふと 「ChatGPTの結果を組み合わせて物語を作ったり議論したりするのをPythonで書くの面倒臭くない?」 と思った。 誰かが作っていそうなので探したのだが、僕の観測範囲では世界のどこにもなかったので、とりあえずBlocklyで作ることにした。 今夜19時からは、日本ディープラーニング協会が主催する大々的なイベントがあり、connpassとPeatixであわせて6000人近い人が参加するらしい。 そこに登壇するときのネタとして、なんか作っておくか、と思った。 GPT Blocklyの基本的な構造 基本ブロックは三つ 基本ブロックテーマを設定するブロックと、話の流れに対し、ある「人物」として、「提案」もしくは「反論」などを行うブロック。 それと、複数の意見をまとめて要約するブロック である。 意見を述べるブロック

                                          ChatGPTをブロックでプログラミングできるようにしてみた(ソースコード付き)|shi3z
                                        • GPTのモデル構造を可視化した|shi3z

                                          GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from transformers import pipeline, set_seed generator = pipeline('text-generation', model='gpt2') m= generator.model x= m.generate() y= m.forward(x) image = make_dot(y.logits, params=dict(

                                            GPTのモデル構造を可視化した|shi3z
                                          • プレ・シンギュラリティ、もう始まってない?|shi3z


                                            AI   SOTA(State Of The Art) AttentionMLP使460830BGoogle AIAIAIAIAI
                                              プレ・シンギュラリティ、もう始まってない?|shi3z
                                            • 完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z

                                              Transformerは分散できる代償として計算量が爆発的に多いという不利がある。 一度みんなが忘れていたリカレントニューラルネットワーク(RNN)もボケーっとしている場合ではなかった。 なんと、GPT3並の性能を持つ、しかも完全にオープンな大規模言語モデルが公開されていた。 そのなもRWKV(RuwaKuvと発音しろと書いてある。ルワクフ?) RWKVはRNNなのでGPUメモリをそれほど大量に必要としない。 3GBのVRAMでも動くという。 時間がない方はビデオをご覧ください 僕の失敗は、何も考えずにgit lfs installでディレクトリごとコピーしようとしたこと。 このディレクトリには過去のモデルデータが全部あるので、ひとつ30GBのモデルデータを何十個もダウンロードしようとしていて終わらなかったのだ。 モデルデータは一とつあれば十分なのでひとつだけにする。 次に、chatのリポ

                                                完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z
                                              • 今日から俺は、|shi3z|note


                                                 19CMS   
                                                  今日から俺は、|shi3z|note
                                                • Apple Vision ProはHoloLensの完成形。現時点での限界値|shi3z

                                                  昔は海外の電波を発する新製品は国内で使用できなかったが、今は総務省の技適の特例制度を利用することでいち早く試すことができる。 「海外法令」云々のところで多少つまづいたが、これはFCC IDを検索すれば解決した。 https://fccid.io/BCGA2117 VisionProのFCC IDはBCGA2117だった。 これで準備完了。 吾輩は、かつては1990年代にキヤノンのMR(混合現実感)システムや理化学研究所のSR(代替現実感)システムを試し、大学院の履修生をやっていた頃はVR特講を受講し、学生対抗国際VR(人工現実感)コンテストに参加したこともある。htc Viveでいくつかのデモを作り(ほとんどは非公開)、Oculusもほとんど持ってるくらいはHMD好きである。片目リトラクタブルHMDで自転車の走行を支援するシステムのデモも2008年頃に作った。 2017年には機械学習したM

                                                    Apple Vision ProはHoloLensの完成形。現時点での限界値|shi3z
                                                  • Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z


                                                    Command-R+! 100B!? TransformerCohereAI!1,2 Command-R+()100BGPT-4,Claude-3 Command-R+GPT-4
                                                      Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z
                                                    • 東浩紀「訂正可能性の哲学」はAI関係者必読だ!|shi3z

                                                      先週、今週とあちこちへ出張が続いているので、移動時間の合間、ネットが途切れる山奥にさしかかったあたりで東浩紀「訂正可能性の哲学」を読んだ。東さんの本はいつもそうなのだが、あまりの内容に驚愕した。 そして昨日はたまたま東さんにVisionProを体験させる約束をしていた日なので、会う前に一気に読み終えた。すごい。もっと早く読めばよかった。 東さんの本は基本的に「凄すぎる」ので、読むと影響を受けすぎてしまってしばらく自分の思考が戻ってこない状態になる。しかし最近の僕は、むしろ忙しすぎて誰かの思考を取り入れたいモードになっていたのだ。 その意味で、まさに今の時代に必要とされている本だと思うし、本当にすごい。10年前に上梓された「一般意志2.0」の続編でもあり、なおかつアップデートでもある。もちろん読んでなくても全然良い。 特に舌を巻いたのは、落合陽一の「デジタルネイチャー」や成田雄介の「無意識デ

                                                        東浩紀「訂正可能性の哲学」はAI関係者必読だ!|shi3z
                                                      • GPT4を使って8万字の書籍を半日で書き上げる方法|shi3z

                                                        書籍の執筆依頼が殺到しているのでなんとか省力化できないかと思ってGPT4を使って下書きを書こうとしたところ、ものの数時間で書き上がってしまった。 下書きができるとあとは早い。 細かなポイントを見たり、最新の情報を入れたり、自分の感想を差し込んだりするだけである。 しかも、文章の整合性がとれているので、パッと見た時にこれがAIによって生成された文章であるかどうかは気づかれにくい。 本でもプログラミングでもそうだが、「まずやりはじめる」という静止摩擦係数が異常に高い。「よし、やろう」と思うまでの時間をGPT4は短縮してくれるし、できあがった原稿のたたき台を見て「ここが足りない」「もっとこういう切り口にできないか」考える、いわゆる「編集者」的な役割をこそこれからのAIユーザーには求められるのかもしれない。 ただ、この方法はあまりにも簡単で強力であるため、世間への影響が大きい。たぶんこれから、バカ

                                                          GPT4を使って8万字の書籍を半日で書き上げる方法|shi3z
                                                        • AIを語りたいなら最低限Pythonをやるべき。足し算より簡単なんだから|shi3z

                                                          昨日は新潟県長岡市に行って、市役所の職員向けと、一般向けに二回の講演を行った。 市役所の職員からの質問事項をよく読むと、ChatGPTを闇雲に何にでも使おうとして苦戦している姿が見てとれた。 たとえばこんな感じだ。 ⚪︎時に東京駅につく新幹線を予約したいとChatGPTに言ったが、公式サイトをチェックしろと言われた 我々からすればその回答は当たり前なのだが、闇雲になんでもChatGPTでやろうとするとこうなってしまうという典型的な例だった。当たり前だが、その目的ならえきねっと一択だ。 ChatGPTには限界がある。しかも低い。 だから通常はPluginと組み合わせたり、プログラムから呼び出したりするという「工夫」が必要になる。 GPTを使うプログラムを書くのはものすごく簡単だ。 たぶんプログラムの世界でも最も簡単な部類だろう。 たとえば僕がプログラムでGPTを使おうかなと思った時、こんなふ

                                                            AIを語りたいなら最低限Pythonをやるべき。足し算より簡単なんだから|shi3z
                                                          • 無料でGPT4越え!?ついに来たXwin-LM|shi3z


                                                            AInpakaGPT-4Xwin-LM  Memeplex(A6000x2)使 >>> from transformers import AutoTokenizer, AutoModelForCausalLM >>> model = AutoModelForCausalLM.from_pretrained("Xwin-LM/Xwin-LM-7B-V0.1") Downloading ()lve/main/config.json: 100%|| 626/626 [00:00<00:00, 56.2kB/s] [2023
                                                              無料でGPT4越え!?ついに来たXwin-LM|shi3z
                                                            • Copilot Studioを使ってみた。注意点と実際にかかるお金の話など|shi3z

                                                              Copilot StudioはMicrosoft 365 E5というお高いパッケージに入らないとプレビュー版すら使えないらしい。 仕方ないので会社で入りましたよ。会社に所属してるのは3人だけど、E5だと25人分のアカウントがついてくる。 しかし!!! 金さえ払えば使えるというほどイージーなものではなかったので皆さんにお伝えします。ちなみにE5に入っただけで月額45000円(1800円x25で)になりました(ただし七日間の試用期間中にキャンセルすれば無料に)。 まずMicrosoft365で企業アカウントを作り、会社のメンバー的な人に個人アカウントを発行します(この時点でかなりハードルが高い)。 そしてCopilot Studioのページからリンクに飛べば、企業の個人アカウントでログインできた。やったぜ! しかしログインしても、様子がおかしい。 なんかフローチャートが出てきて、フローチャート

                                                                Copilot Studioを使ってみた。注意点と実際にかかるお金の話など|shi3z
                                                              • GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z

                                                                日本時間未明(午前三時)ものすごいスピードで語られたOpenAI初の開発者向けイベントDevDayで発表されたGPT-4-TurboとGPT-3.5-TurboによるJSONモード。 これはものすごく強力なんだけど、Python APIによる使い方がどこにも描いてないので試行錯誤の末見つけましたので共有いたします。 from openai import OpenAI import openai import os openai.api_key = "<APIキー>" client = OpenAI() def gpt(utterance): #response = openai.chat( response = client.chat.completions.create( #model="gpt-4-1106-preview", model="gpt-3.5-turbo-1106", r

                                                                  GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z
                                                                • AIで動画&音楽生成はここまで来た!|shi3z

                                                                  AI動画生成が結構いいところまできた。 Runway-MLのGen2も素晴らしいのだが、オープンソースのZeroscope-v2-xlがすごい 音楽もmusicgenで大体作れる これまで音楽生成には否定的だったが、ここまで作れるなら、DJ機材用のループ素材として十分使える気がする。というか30秒も作れるのでループでは勿体無いというか。「久石譲っぽく」とか「ジョン・ウィリアムズ風」とかでそれっぽいものが出てくる。

                                                                    AIで動画&音楽生成はここまで来た!|shi3z
                                                                  • 偉い人がいうことはわけわかんないことほどだいたい正しい|shi3z

                                                                    というタイトルで書こうと思ったらnoteのAI支援機能が来ていたので目次を生成してみた。 1. すべての人が思っているわけでもなく "偉い人の言うこと" は常に正しいということはない。 2. その理由のひとつに、あまりにもわけわからない内容から判断できないことがあるからだ。 3. 偉い人の言うこと以上に、その裏付けとなる情報を探し、自分で判断して行動するということが大切。 4. 誰の言葉も信じ込まず、目からウロコが落ちる、ネットバズになりそうな情報を探してみよう。 noteのGPT連携機能がタイトルから生成全体的に「何言ってんだコイツ」という内容になったのでAIの提案した流れは無視してしたい話をすることにする。 早くもAIの弱点が露呈したように見えるが、要は「意味のある記事」というのは、「わけのわからないタイトル」で始まるもので、「わけのわからないタイトル」は前例がないので、前例から内容を

                                                                      偉い人がいうことはわけわかんないことほどだいたい正しい|shi3z
                                                                    • ついに発売!子どもプログラマーキーボード|shi3z|note

                                                                      「秋葉原式プログラマーキーボード for kids」が本日より発売! 税別2,480円! 各記号に正しい読み方が書いてあるので お子様や初心者だけでなく、 記号は分かるんだけど他の人に説明するのに正式名称なんだったっけ…? 等、プログラミング初心者でなくてもおススメできるキーボードです! pic.twitter.com/IrrfDVsKYl — ツクモ池袋店 (@TIkebukuro) September 24, 2019 というわけで、吾輩の企画したお子様プログラマーキーボードが全国のTSUKUMOで発売開始になりました。 自分で自分の顔が出ている商品を撮影にいくのが恥ずかしかったので、TSUKUMO各店舗さんのツイートを引用することでお茶を濁したいと思います。 【for kids】 未来のプログラマの為に発売!アルファベットや記号キーに全て「カナ」を振ったkids向けです 『秋葉原式プ

                                                                        ついに発売!子どもプログラマーキーボード|shi3z|note
                                                                      • ご家庭のパソコンでLLMが動く!・・・またかよ|shi3z

                                                                        やっぱあれですな。 一度動いちゃうと後はもう雪崩のようですな。 そしてこっち側も新鮮味を感じなくなってしまうというか。 んで、ものすごくアッサリとうちのMacBookProで動きました。 量子化済みのモデルをダウンロードしてスクリプト動かすだけ! 工夫なし! Windowsでもいけると書いてある。しかもめちゃくちゃ高速 % ./gpt4all-lora-quantized-OSX-m1 main: seed = 1680064969 llama_model_load: loading model from 'gpt4all-lora-quantized.bin' - please wait ... llama_model_load: failed to open 'gpt4all-lora-quantized.bin' main: failed to load model from 'gp

                                                                          ご家庭のパソコンでLLMが動く!・・・またかよ|shi3z
                                                                        • AI時代に起業するということ|shi3z

                                                                          生成AI以前と以後で、会社のあり方は決定的に変化していくのだと思う。 たとえば、昨日はとある会議で、「この(AI)サービスの原価はいくらか」という議論が沸き起こった。 AIサービスなのだから、AIの利用料くらいしかかからないかというとそうでもない。実際、AIを動かすためにはAIそのものにかかるお金以外の人件費がかかる。誰かに売る人の人件費や、システム開発のための人件費や、サポートのための人件費だ。ただ、AIサービスの場合、人件費を極限まで最小化することができる、という点が決定的に違う。 また「AIの利用料」も、「APIの利用料」なのか、ベアメタルサーバーの月額利用料なのか、それとも自社に持っているGPUマシンの電気代なのか、という議論のポイントがある。 あまり多くの人は語らないことだが、実は起業には再現性がある。 つまり、一度でも事業をうまく立ち上げたことがある経験を持つ人は、次も事業をう

                                                                            AI時代に起業するということ|shi3z
                                                                          • GPT-4 APIがやってきた!3.5と"性能"を比較する|shi3z

                                                                            Waiting Listにもっと時間がかかるかと思ったのだが、予想外に早く(一日)APIのロックが解除された。ただしまずは8Kトークン版のみ。 GPT-3.5が4Kトークンだったから倍の長さのストーリーが出せるということだ。 ただし値段はChatGPT APIの10倍。元に戻った感じ。 これはどっちを使うべきか結構悩むぞ。 こんな感じで呼ぶ % curl https://api.openai.com/v1/chat/completions \ -H 'Content-Type: application/json' \ -H 'Authorization: Bearer APIKEY'\ -d '{ "model": "gpt-4", "messages": [{"role": "user", "content": "宮崎駿について"}], "temperature": 0.7 }'答えはこ

                                                                              GPT-4 APIがやってきた!3.5と"性能"を比較する|shi3z
                                                                            • 俺はソフトバンクの社員だったことはありません|shi3z

                                                                              逮捕されたのは別人です。 逮捕されてたら書けないでしょ。今 ソフトバンク元部長らを詐欺容疑で逮捕 架空事業で12億円詐取疑い:朝日新聞デジタル ソフトバンクの事業への投資だとうそを言って12億円をだまし取ったとして、警視庁は8日、同社元統括部長の清水亮(47)=東 www.asahi.com 以下の本も書いてません 徹底解説RPAツール WinActor導入・応用完全ガイド amzn.to 3,960円 (2023年11月08日 22:08時点 詳しくはこちら) Amazon.co.jpで購入する

                                                                                俺はソフトバンクの社員だったことはありません|shi3z
                                                                              • ごめんVisionPro誤解してた (๑˃̵ᴗ˂̵)|shi3z


                                                                                VisionPro PSVR使 PSVRVRVisionPro VisionProTerminal  Amazon Prime 使()使 HMD
                                                                                  ごめんVisionPro誤解してた (๑˃̵ᴗ˂̵)|shi3z
                                                                                • 高次元ベクトルを「矢印」とイメージするのがちょっとしっくりこない理由|shi3z

                                                                                  なぜAIを考える時にベクトルを「矢印」と捉えるべきではないのか。 実際には矢印として考えたほうがいい例外もあります。 たとえば、特徴空間の任意の2点の引き算や足し算をするとき。 矢印のメタファーが使えます。 あるベクトルAから別のベクトルBを引いたベクトルCは、BからAへ伸びる矢印としてイメージするのは大丈夫です。 この性質を利用して、プロンプト芸が成り立つケースもあります。 たとえば画像生成系AIで使われるネガティブプロンプトはそういう性質を使っています。 しかし、根本的に、我々が普段イメージする二次元の矢印で示されるベクトルと、十次元以上の高次空間のベクトルは、全く異なる性質をもっていると考えるべきです。低次のベクトルと、高次のベクトルでは、共通する要素はあるけれども、それはごく一部に過ぎないということです。 例を挙げましょう。 1次元のベクトルは、正負の向きと大きさを持ちます。 数直

                                                                                    高次元ベクトルを「矢印」とイメージするのがちょっとしっくりこない理由|shi3z

                                                                                  新着記事