フォートトークのオープンチャットがアップデート! 推論特化型LLM「QwQ-32B」で高度な問題解決を可能に】
フォートトーク ver.0.99.037のオープンチャットに、Alibabaが開発したオープンソース大規模言語モデル「QwQ-32B」(約32.5Bパラメータ)を新たに導入しました。
数学やプログラミングなど複雑なタスクを効率的に解決できる“推論特化型”設計が特長です。最大131,072トークンの大容量コンテキストに対応し、膨大な情報を統合した高度な推論を実現。さらに、強化学習を活用した高精度化により、ビジネスから日常まで多彩なニーズに柔軟に応えます。
このアップデートにより、フォートトークのオープンチャット機能は、数式の導出過程やコードのデバッグ手順など、より複雑なやり取りにもスムーズに対応できるようになりました。あわせて、QwQ-32Bの技術詳細や活用例を解説する会話形式の音声も公開していますので、ご活用ください。
【注目ポイント】
DeepSeek R1級の性能を、わずか1/20のパラメータ数で実現!
高い精度と使いやすさを両立する“先進的”な推論型LLMです。
詳細はこちら → https://forttalk.com/research/qwq-32b/
ご覧いただきありがとうございました。