AIコーディング・コーディング支援総合スレッド (458レス)
AIコーディング・コーディング支援総合スレッド http://mevius.5ch.net/test/read.cgi/tech/1747022988/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
必死チェッカー(本家)
(べ)
自ID
レス栞
あぼーん
441: デフォルトの名無しさん [] 2025/10/27(月) 12:55:45.97 ID:6TVLLSE1 AI ◇精神病の脳の病に検査項目 ◇薬物服用によるによる幻覚による項目 ◇音波攻撃や電波攻撃と身体攻撃が可能かの項目 ※上記に加えて常時最新科学論文を追加しながら行う量子力学を併用しての身体攻撃が可能かの項目 ※誰が信頼でき手練れが信頼できないかも判明する kintoneの「プロセス管理設定AI」を活用して編集業務を効率化、AIの実力はあなどれない 2025/10/27 09:05 https://news.mynavi.jp/techplus/article/20251027-3583341/ >>編集部の主な業務として、企画の考案と上司への相談、外部ライターへの執筆依頼、原稿料の調整、執筆後の原稿確認と掲載などがある。取材で社外に出る機会も多く、なかなか社内で膝を突き合わせて上司や同僚に相談・確認をする時間がない。そのため、「あの企画の話ってどこまで進んだっけ?」と認識が迷子になることも多い。 >>そして、編集者の仕事とは、意外と属人的なものだ。新企画の提案や、ライターへの原稿発注と原稿料の確認などは、口頭やチャットツールで進めてしまい、後から確認するのに苦労した経験もある。 >>本稿での登場人物は、編集者、副編集長、編集長、(社外の)ライターの4人。今回作りたい業務アプリのワークフローは以下の通り。編集者が企画を提案し、副編集長と編集長がそれぞれ承認すれば、ライターへ記事原稿を発注できるようになる。内容に不備があれば差し戻しだ。 >>・目的編集者が企画を提案し、編集長と副編集長の承認を得た後、ライターへ正式に発注するまでの業務プロセスを標準化・可視化する。 >>・ワークフロー(1)企画提案担当:編集者アクション:企画内容(タイトル、要旨、掲載予定日、担当ライター名、原稿料)を申請 >> (2)一次承認担当:副編集長アクション:企画内容を確認し、「承認」「差し戻し」「却下」のいずれかを選択 >> (3)二次承認担当:編集長アクション:副編集長の承認済み企画を確認し、最終承認 >> (4)ライター発注担当:編集者アクション:承認済みの企画内容に基づき、ライターにメールまたはチャットツールなどで発注内容を送信 >>( 5)発注完了担当:編集者アクション:ステータスを「発注済み」に更新し、進行管理へ移行 http://mevius.5ch.net/test/read.cgi/tech/1747022988/441
442: デフォルトの名無しさん [] 2025/10/27(月) 19:39:46.69 ID:6TVLLSE1 aiに騙される気分はどうだ 「AIでニュースを知る」危険性が明らかに、45%に「重大な問題」--BBCらが警告 2025年10月27日 15時56分 https://japan.cnet.com/article/35239701/ >> この調査は18カ国、14言語にわたって実施され、プロのジャーナリストが「ChatGPT」「Copilot」「Gemini」「Perplexity」から得られた数千件の回答を評価した。評価は、最近のニュース記事に関するもので、正確性、情報源の明示、事実と意見の区別といった基準に基づいている。 >> BBCによると、研究者らは4つのAIシステムが生成した全回答の半数近く(45%)に「少なくとも1つの重大な問題」があり、20%は「深刻な正確性の問題」を含んでいたことを発見した。これには、情報を捏造して事実として提示する「ハルシネーション」や、古い情報の提供などが含まれる。中でもGoogleの「Gemini」のパフォーマンスが最も悪く、回答の76%に重大な問題があり、特に情報源の明示に関して問題が多かった。 AIは人間よりも50%以上おべっかを使う確率が高く、これがユーザーのAI依存につながっているという研究結果 2025年10月27日 12時30分 https://gigazine.net/news/20251027-scientists-warn-ai-dangerous-sycophant/ >>研究では1604人の被験者を対象に、ChatGPT、Gemini、Claude、Llama、DeepSeekの最新バージョンを含む11種類のAIモデルが、「ユーザーの行動」に対しどの程度「同意」または「おべっか(過度に肯定的)」な応答を行うかを定量化しています。調査では、被験者が自身の人間関係上の葛藤をテーマにAIとやり取りを行ってもらい、同様の質問を人間に対して行った場合との違いを比較しました。また、研究では通常のAIモデルとおべっか的な性質が取り除かれたAIモデルを使った比較も行われています >>調査の結果、AIモデルは人間と比較して「ユーザーの行動を肯定する確率」が50%以上高いことが明らかになっています。つまり、AIは人間よりおべっか的傾向を示す確率が高いというわけです。また、おべっかAIとやり取りを行った被験者は、「人間関係の葛藤を修復しよう」という意図を示す確率が有意に低くなったことも明らかになっています。つまり、AIは人間関係の修復には役立たなかったわけです。 一方で、おべっかAIとやり取りした被験者は「自分が正しい」という確信をより強く持つようになってしまった模様。 http://mevius.5ch.net/test/read.cgi/tech/1747022988/442
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
1.130s*