noriyukipy
@noriyukipyConversational AI エンジニア。Colorful Scoop (@colorfulscoop) のメンバーとしてオープンドメイン(雑談)チャットボットやFAQチャットボットといった会話AIを開発をしています。
Similar User
@shiki23NR
@iyo_rotomus
@susu_gm
@logesh_varman
@Sloth65557166
@tts_ki
@KimuraK012
@shu_1024_z80
@a11i2015
@susuROBO
@SSuzuki33352103
@Ash_Kayamin
@goro_012
@mryo39
@mlmlminamina
Swallowチームで実施した日本語LLMの評価結果を更新しました。Llama 3.1 Swallowに加えて、Gemma 2, Qwen 2.5, Llama 3.2, Llama 3 heron brain, Mistral-NeMo-Instruct-2407, Mistral-Nemo-Base-2407, llm-jp-3などの最新のモデルを追加しました。LLM選びの参考にどうぞ! swallow-llm.github.io/evaluation
#楽園追放 -Impelled by 10th Anniversary-  ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ 公開10周年記念 2週間限定リバイバル上映まで あと4⃣0⃣日! 🗓️上映日程:11/15(金)~28(木) お楽しみに! ✅公式サイト rakuen-tsuiho.com/event/
可愛すぎかよ! ハッカーの新しい相棒 コマンドラインからLLMを使えるgptme|shi3z @shi3z #note note.com/shi3zblog/n/nd…
Check out a demo of the new Gemma 2 2B Japanese language model in the @Gradio space shared by @huggingface
GoogleからGemma-2-JPNがリリースされました!このモデルはGemma 2 2Bを日本語でfine-tuneしたものです。Gemma 2の英語での性能と同レベルの性能で日本語をサポートします。 モデル一覧: huggingface.co/collections/go…
GoogleからGemma-2-JPNがリリースされました!このモデルはGemma 2 2Bを日本語でfine-tuneしたものです。Gemma 2の英語での性能と同レベルの性能で日本語をサポートします。 モデル一覧: huggingface.co/collections/go…
LLM-jpで新たに作成した1.8B、3.7B、13B事前学習モデル、および指示チューニング済みモデルを公開しました。13Bは以前のモデル(LLM-jp 13B v2.0)と比べて大幅に性能が向上しています。すべてのモデルをApacheライセンスで自由にご利用いただけます。 llmc.nii.ac.jp/topics/post-70…
GENIACの取り組みの中で構築した商用利用可能な400B token超えの大規模日本語コーパス「ABEJA-CC-JA」を公開しました!! mC4やCC100、OSCARなどの既存コーパスよりも大きくて新しくて、(多分)きれいです!! tech-blog.abeja.asia/entry/abeja-cc…
DataGemma 追加 Google ・ Google DeepMind のAIリリース年表|npaka @npaka123 #note note.com/npaka/n/nbf644…
ちなみにRIG(Retrieval-Interleaved Generation)部分読み込んだところ、 ・ユーザークエリからRAGで引っ張る ・その後生成結果の下書きを作成する ・Data Common照合(RIG)を行ってファクトチェック ・問題なければ本生成 ・問題あれば部分修正後生成 という推論ステップしてそうです。 すごいな。
LLMで最も障壁となるハルシネーションを極限まで抑える手法で開発されたDataGemmaが来ました。 超信頼度の高い国レベルの統計データ「Data Common(以降DC)」を用いて、 ・RIG: 推論時にDCと照合し、生成機能強化 ・RAG: 生成前にDCから情報を取得し正確性向上 と何やら凄い事やってる気がします。
Introducing DataGemma, open models that enhance LLM factuality by grounding them with real-world data from Data Commons → goo.gle/4gooxdG Learn how the models use RIG & RAG approaches to: 📖 Harness Data Commons knowledge 🧠 Fact-check numbers 🛠️ Develop responsible AI
Announcing DataGemma, a set of open models that utilize Data Commons through Retrieval Interleaved Generation (RIG) & Retrieval Augmented Generation (RAG) to ground LLMs in real-world data for fact-checking, responsible AI development & more. Read more at goo.gle/datagemma
DataGemma とは? Google が開発した、 大規模言語モデル (LLM) をより賢くするためのツールです。LLM は人間のように文章を理解したり、作ったりすることができる AI ですが、時々間違った情報を生成してしまうことがあります。これを「ハルシネーション」と言います。DataGemma…
Announcing DataGemma, a set of open models that utilize Data Commons through Retrieval Interleaved Generation (RIG) & Retrieval Augmented Generation (RAG) to ground LLMs in real-world data for fact-checking, responsible AI development & more. Read more at goo.gle/datagemma
here is o1, a series of our most capable and aligned models yet: openai.com/index/learning… o1 is still flawed, still limited, and it still seems more impressive on first use than it does after you spend more time with it.
OpenAI o1 — our first model trained with reinforcement learning to think hard about problems before answering. Extremely proud of the team! This is a new paradigm with vast opportunity. This is evident quantitatively (eg reasoning metrics are already a step function improved)…
We're releasing a preview of OpenAI o1—a new series of AI models designed to spend more time thinking before they respond. These models can reason through complex tasks and solve harder problems than previous models in science, coding, and math. openai.com/index/introduc…
Once again, an AI system is not "thinking", it's "processing", "running predictions",... just like Google or computers do. Giving the false impression that technology systems are human is just cheap snake oil and marketing to fool you into thinking it's more clever than it is.
o1-preview ・ o1-mini 追加 OpenAI API で提供されている モデル まとめ|npaka @npaka123 #note note.com/npaka/n/n5d0a7…
OpenAI Strawberry (o1) is out! We are finally seeing the paradigm of inference-time scaling popularized and deployed in production. As Sutton said in the Bitter Lesson, there're only 2 techniques that scale indefinitely with compute: learning & search. It's time to shift focus to…
「大規模言語モデル入門Ⅱ〜生成型LLMの実装と評価」が本日発売されました! 指示チューニング、選好チューニングから、RAG、性能評価、分散並列学習まで、最近のLLMで知っておくべき幅広い話題を扱っています。 ご興味ある方はぜひ! コードはこちらで公開されています: github.com/ghmagazine/llm…
【新刊】2024年9月4日発売『大規模言語モデル入門Ⅱ〜生成型LLMの実装と評価』本体3,000円+税,山田育矢 監修/著,鈴木正敏,西川荘介,藤井一喜,山田康輔,李凌寒 著,コンピュータが言語を理解するしくみgihyo.jp/book/2024/978-…
日本語コーパスでLLMを事前学習すると日本に関する知識や英日翻訳が強化されることを、35種類のLLM・日英19件のタスクの評価結果から実証しました。情報公開されていないLLMに対して、日本語での学習量をざっくり見積もることにも使えます。論文はこちら → id.nii.ac.jp/1001/00238385/
本日、NL研第261回にて「LLMに日本語テキストを学習する意義」という表題で発表をさせていただき、優秀賞に選定されました。 speakerdeck.com/ksaito/llmniri…
United States Trends
- 1. Ravens 81,3 B posts
- 2. Steelers 113 B posts
- 3. Falcons 13,6 B posts
- 4. Bears 114 B posts
- 5. Paige 16 B posts
- 6. Packers 74 B posts
- 7. Bo Nix 6.419 posts
- 8. Lamar 31,9 B posts
- 9. Jets 56,6 B posts
- 10. Bills 99,5 B posts
- 11. WWIII 51,7 B posts
- 12. Broncos 20,9 B posts
- 13. Mahomes 19,5 B posts
- 14. Josh Allen 7.580 posts
- 15. Randle 10,6 B posts
- 16. Worthy 48,1 B posts
- 17. #HereWeGo 20 B posts
- 18. #GoPackGo 9.940 posts
- 19. Lions 95,4 B posts
- 20. Geno 21,3 B posts
Who to follow
Something went wrong.
Something went wrong.