メインカテゴリーを選択しなおす
中国DeepSeekと清華大学、低コスト・高性能のAIモデル訓練手法『SPCT』を発表
中国のAIスタートアップDeepSeek(杭州深度求索、浙江省杭州市)は、AIモデルのオープンソース化と迅速な実装を重視するアプローチにより、大規模言語モデル(LLM)の推論能力を向上させ、今年1月のDeepSeek-R1の打ち上げで、世界のAI領域で一躍脚光を浴びた(「中国スタートアップDeepSeekのAIモデル、世界のAI市場に衝撃」(2025年1月29日)を参照)。 先ごろ、DeepSeekと北京市の清華大学は共同で、膨大なトレー...
これまでLLMをしばくときはPoeを使っていたが、ぶっちゃけClaude 3.7 Sonnet以外ほとんど使わないので、節約の意...
【簡単導入】llms.txtの導入方法|お勧めプラグイン!AI検索時代のWebサイト最適化
AI検索時代に対応する新たなSEO対策「llms.txt」の概要、導入方法、メリットを解説!本記事では、llms.txtの基本からおすすめプラグインを活用した簡単な導入方法、設置確認手順までを初心者向けに分かりやすく説明。
【PLaMo(プラモ)】日本が生み出した大規模言語モデルが登場!
PLaMoは、日本企業のPreferred Networks(PFN)が開発した大規模言語モデル(LLM)で、正式名称は「PLaMo-13B」です。このモデルは約130億のパラメータを持ち、英語と日本語両方に対応しています。オープンソースとして公開されており、研究や商用利用に広く活用できる柔軟性が特徴です。
生成AIによる自然言語処理:2025年の多言語対応 最新トレンドと革新的応用
2025年現在、生成AIによる自然言語処理(NLP)技術は急速な進化を遂げ、多言語対応の分野で革命的な変化をもたらしています。 本記事では、最新のトレンドと革新的な応用例を詳しく解説します。 1. 高度な文脈理解と感情認識 2025年のNL…
Grok Grok(グロック)は、xAIによって開発された、大規模言語モデル(LLM)に基づいた対話型の生成的人工知能チャットボットである。Xの全投稿データをリアルタイムに学習しており、イラストなどの
【AI】「DeepSeekショック」の株価大暴落が回避された理由 [エリオット★]
最近話題になっている「DeepSeekショック」が株価に与える影響について、興味深い分析が膨らんでいます。株価大暴落が回避された理由は、投資家たちの信頼感が回復したことにあると考えています。株式市場の
前提 副業ではなく、本業(育児中の方などのパート代わりも含め)としての在宅ワーク・文字起こしの仕事の話です。文字起こしが副業向きの仕事ではないと私が思う理由はたくさんありますが、話すと長いのでまたあらためて書きます。 文字起こしはAIに取ら
「ついにBitNet Llama8Bが登場! CPUのみで爆速推論するLLM,BitNet.cpp」との記事を見かけ、進歩のスピードが早いことを改めて感じました。日本語は見た目がまだ使用できないように感じたのですが、それも早いうちに解消するのではないでしょうか。...
VRAM容量が多いものがほしい今日このごろ、「もうでかいVRAMに高い金を払う必要は無くなるかもしれないのか?超分散LLM推論環境が爆誕」などという記事を見かけました。ネットワーク周りなど色々ボトルネックも生じる可能性はありますが、4GBのグラフィックカード4台分など構築できればそこそこの性能は出るのでしょうか?...
LLMについて学習をどのようにさせたらよいか調べていたとき「Phi-3-miniをFine-Tuningしてみる。」との項目を見かけました。特定項目について学習させるということで、非常に興味があります。ただ説明で「データセットの用意」の箇所がいまいちわからないため、さらなる調査が必要になりそうです。...
ビジネスしてる人なら見てるよね 孫正義の描く未来 今すぐにAI革命の波に乗るべきだ
SoftBank World 2024 加速するAI革命。未来を見据え、いま動く。孫正義氏の発言 ソフトバンクのAI戦略を中心とした現状分析と未来展望…
最近スタンドアロンでのAI構築に興味があり色々知らべていたところ「【LLM最新版】おすすめ日本語対応ローカルAIモデル8選!」との記事を見かけました。日本語版もだいぶ充実してきたようです。...
最近LLMにハマっているのですが、「青空文庫から自作LLMを作ろう!」という記事を見かけました。ある分野に特化したものを作成できるとのことであるため、少々ウキウキしています。...
「WindowsでLLM動かしてみた」で気を良くして、メタが作成したLlamaを試してみたのですが・・・日本語の質問は理解して入るようなのですが、回答が英語・・・しょぼくれていましたら、「よーしパパ、Ollama で Llama-3-ELYZA-JP-8B 動かしちゃうぞー」という記事を発見!Windowsでも同じように構築できるのでしょうか?週末に試してみるのが楽しみです。...
「WindowsでLLM構築」で記事にした内容でLLM構築してみました。ハード構成は AMD Ryzen 7 3750H with Radeon Vega Mobile Gfx 2.30 GHz 32.0 GB (30.0 GB 使用可能) M.2 SSD 元記事では、Ollama-ui をインストールとなっていましたが、どうもChromeのアップデートで非推奨になってしまったようです。 代わりにPage Assistというものをインストールして、右上のアイコンをクリックして言語を日本語にしてみました。 イン...
「Windows版 Ollama と Ollama-ui を使ってPhi3-mini を試してみた」との記事が目に止まり、ある程度メモリを搭載していればなんとか動くそうです。こちらについて週末試してみたいと思います。...
AI の普及に伴うクラウドストレージ支出の動向|CIO Dive
Enterprise cloud storage spend to double by 2028 as AI ramps up 2024年7月28日に投稿された記事です。 Omdia の調査分析を基にした内容が記されています。Omdia は、テクノロジー業界に特化した調査や評価を行っている組織ということです。 この分析レポート(CIO Dive)では、 「企業のクラウドストレージへの支出は、2023年の570億ドルから2028年までに1280億ドルへと2倍以上に増加」 と予測されています。も...
「M1MacでOllamaを試したら爆速で驚いた」との記事を見かけましたが、Windowsはまだプレビュー板らしいですが、正式版が楽しみです。...
googleニュースで「まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性」との記事を見かけ、興味がそそられる内容であったので読んでみたのですが・・・VRAMをかなり確保できる環境の方の話でした(涙)ただあと数年すれば、一般向けの標準VRAMも増加すると思うのですが、それを期待して待つしかありませんね。まあその時は求められる要求基準がまた増加してイタチごっこになるかもしれませんが。...
「1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう」との記事を見かけましたが、なんともそそる話です。内容的に複数グラフィックカードを束ねるSLIを思い出しましたが、なんかSLIはもうないらしく、今回の複数グラフィックカードの話も比較的性能の高いもので、お気軽に環境構築できるようなものではなさそうです。...
初めましての方でも動かせるローカル LLM チュートリアルというのを見つけた
「いちばんやさしいローカル LLM」との記事がご飯を食べているときに目に止まりましたが、ロマンがありますな。試してみたのは山々ですが、風邪もまだ治ってなく、他の未処理分も溜まってしまい、色々手がまだつけられません。...
google先生が興味があると思われる記事を色々チョイスしてくれるおかげで、「生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた」との記事にめぐり逢いました。私の大雑把な理解から、1.学習結果から推論の不要な枝を落とす。かつてチェスでディープブルーがすべての手を計算していたとのことですが、将棋ではその手が使えず、ボナンザで王+金+飛車でしたっけ?これを結んだ3角形の形で良い...
「Microsoftが1.58ビットの大規模言語モデルをリリース、行列計算を足し算にできて計算コスト激減へ」という古い記事が目に止まりましたが、関連して「1BitLLMの実力を見る」との記事で実行環境構築の記事がありました。高価なGPUでなくてもそこそこのものができるそうですが、日本語は少々問題ありそうですが・・・...
ハイスペックでなくても省資源でAIを動かすことができるのか?
ネットを漁っていたら、きしだのHatenaサイトにて「「CTranslate2でRinnaモデルをコンバートしてCPUや8GB GPUで動くようにする」」という記事を見かけました。関連して「rinnaのYouri 7Bで8GB GPUでもLLM翻訳ができるかも」などの記事もありましたが、AIの進歩は凄いですね。...
「ジャンクノートパソコンにPythonと日本語LLMのRinnaを入れてメモリ16GBとSwapフルでローカル質問してみた。メモリ足りなくてもSwap積めばなんとかなる。ローカルLLM最高」との記事を見かけました。これなら手元機材を元に、メモリを追加すればなんとかなるかな?...
Meta【Llama2】の使い方(WindowsCPUで7Bを動かす簡単手順)
更新日:2023年7月24日 概要 「13B」も動きました! Metaがオープンソースとして7月18日に公開した大規模言語モデル(LLM)【Llama-2】をCPUだけで動かす手順を簡単にまとめました。 ※CPUメモリ10GB以上が推奨。13Bは16GB以上推奨。 ※Macbook Airメモリ8GB(i5 1.6GHz)で起動、生成確認できました。ただし20分かかりました!笑 10GB以上ないと厳しいようです。 手順通り進めば簡単にChatGPTのような生成AIをローカル環境で利用できます!! そして・・・ 商用利用可能!! なんと太っ腹 応用すれば個人開発して様々なアプリに搭載して遊んだり…
【超長文】GPT-4の100倍!?LLMモデルの実証実験の開始!
AI領域を専門的に扱う企業の注目度が増している。生成AIプラットフォームMetareal AIにGPT-4の100倍のデータを投入できるLLMモデルの実証実験を開始と株式会社メタリアルの子会社株式会社ロゼッタが発表した。
CyberAgentのLLMをローカル(Windows)で動かしてみた
更新日:2023年5月17日 概要 環境 手順 1.ライブラリのインストール 2.動作確認「open-calm-small」 3.本命「open-clam-3b」 概要 昨日5月16日に記事で紹介したCyberAgentさんのLLM 予定通り本日huggingfaceで公開されましたね!! ai-wonderland.com さっそく動かしてみました! huggingface.co Modelは6つ用意されていて 一番大きい「open-clam-7b」はVRAM15GBほど必要なようです。 なんたって68億パラメータですからね。 私の環境では無理なので、その下の「open-clam-3b」を動…
更新日:2023年5月17日 概要 公開予定の日本語特化型言語モデル 1.サイバーエージェント 2.Stability AI 3.ソフトバンク・LINEの和製GPT 参考 概要 今やAIの中心話題となっている生成AI 特にChatGPT公開により一躍有名となった 大規模言語モデル(LLM)ですが いよいよオープンソース公開が増えてきましたね!! 各社がどのように展開し、評価されていくのか どこが中心的な存在になるのか、、ここからの変遷が楽しみです。 そうした中で日本語特化モデル公開を予定している有名どころは今のところ3つですかね。 公開予定の日本語特化型言語モデル 1.サイバーエージェント w…