高校数学の質問スレ(医者・東大卒専用) Part438 (991レス)
高校数学の質問スレ(医者・東大卒専用) Part438 http://rio2016.5ch.net/test/read.cgi/math/1723152147/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
135: 132人目の素数さん [sage] 2024/08/23(金) 08:31:17.84 ID:Am/2METs >>133 数値一致wwww 等号の意味すら分からないのかよwwww http://rio2016.5ch.net/test/read.cgi/math/1723152147/135
164: 132人目の素数さん [sage] 2024/08/25(日) 14:05:54.84 ID:1ZiEG71e >>160 結局お得意のGPTでも答えられなかったから答えが出るまでダンマリ決め込むしかなかったんだろ? 悔しかったら答えが出る前に答えだせよタコw >>163 アンタと同じ文体でアンタがシカトされてる時にしれっと書き込み これが自演じゃなくて何なんだよ? http://rio2016.5ch.net/test/read.cgi/math/1723152147/164
166: 132人目の素数さん [sage] 2024/08/25(日) 14:13:20.84 ID:QiSGCEaw >>164 ChatGPTに入力してみたら、正解が返ってくるから。 http://rio2016.5ch.net/test/read.cgi/math/1723152147/166
323: 132人目の素数さん [sage] 2024/11/18(月) 13:33:45.84 ID:EFXQWzbV 底辺シリツ医でRが使える医師をみたことがないな。 R(PythonでもWolframでもいいけど)が使えると、こういう計算ができるので 必要なスピッツや試薬の数を準備できる。 日本人の血液型はAB:B:O:A=1:2:3:4であるという。 無作為に何人の血液型を調べて 調べた人にすべての血液型が含まれる確率を99%以上にしたい。 何人以上調べればよいか? 99%を越えたときの確率を分数で算出せよ。 http://rio2016.5ch.net/test/read.cgi/math/1723152147/323
374: 132人目の素数さん [sage] 2024/12/05(木) 08:04:52.84 ID:eKN5wIeH >>373高校生相手にバカにされてそんなに楽しい? http://rio2016.5ch.net/test/read.cgi/math/1723152147/374
410: 132人目の素数さん [sage] 2024/12/10(火) 08:07:33.84 ID:ThoL421/ 71:卵の名無しさん:2024/12/10(火) 07:45:14.38 ID:m2CrVHD7 尿瓶ジジイさぁ ルールは守ろうぜ高校生に怒られてんじゃん そんなんで誰がお前を医者だと信じんだよ こんな糞スレならいくら荒らしても良いけど他所様に迷惑かけちゃ駄目だろ まずは謝ろうな?それが社会人としての最低限のマナーだよ 本当の事ばっかり言ってゴメンな お前が医者のフリしても今度はもう少し優しく間違いを指摘してあげるから戻っておいで http://rio2016.5ch.net/test/read.cgi/math/1723152147/410
531: 132人目の素数さん [sage] 2025/01/10(金) 02:06:10.84 ID:5hjYx106 Fimoseくんはロータリーエンジンの動くシェーマの動画を作れないの? 完成した動画をみてもハウジングが何かわからんようだし。 やっぱり、弄れるのはforeskinだけ。 http://rio2016.5ch.net/test/read.cgi/math/1723152147/531
606: 132人目の素数さん [sage] 2025/01/22(水) 12:35:00.84 ID:Z2QDPzpT >>601 フルボッコで草 http://rio2016.5ch.net/test/read.cgi/math/1723152147/606
624: 132人目の素数さん [sage] 2025/01/24(金) 16:18:18.84 ID:oqbYUASM >>611 本当だ問題とかちゃんと読んで無かったけど 最小値4じゃねーの?どうやって計算して10になったの? http://rio2016.5ch.net/test/read.cgi/math/1723152147/624
665: 132人目の素数さん [sage] 2025/02/05(水) 14:33:01.84 ID:7/CBuIct >>661-664 また、書き込み出来なくなるぞw http://rio2016.5ch.net/test/read.cgi/math/1723152147/665
671: 132人目の素数さん [sage] 2025/02/06(木) 11:54:33.84 ID:PCP+ZBYn 偽医者は友人と呼べる者が居なく実社会でも余程嫌われている。精神患者の如く(真性?)関係ない事をグダグダと言う様では誰も寄り付かないだろ。 http://rio2016.5ch.net/test/read.cgi/math/1723152147/671
674: 132人目の素数さん [sage] 2025/02/06(木) 16:20:51.84 ID:rViXyt0w >>673 Fラン大学では画像を検体というのか? http://rio2016.5ch.net/test/read.cgi/math/1723152147/674
682: 132人目の素数さん [sage] 2025/02/06(木) 16:47:16.84 ID:Kqo8KOCs 機器だと器具も含まれちゃうな 機械、装置だね 質問と出題の違いといい、言葉の違いを理解できないんだね http://rio2016.5ch.net/test/read.cgi/math/1723152147/682
846: 132人目の素数さん [sage] 2025/05/24(土) 21:16:24.84 ID:VetM3rz7 # dbeta(L,a,b) == dbbeta(U,a,b) # Solve[L^(a-1)(1-L)^(b-1)==U^(a-1)(1-U)^(b-1), b] L=1/7 U=1/5 credMass = 0.95 f = function(a) 1 + ((a - 1) * log(U / L)) / log((1 - L) / (1 - U)) g = function(a) pbeta(U,a,f(a)) - pbeta(L,a,f(a)) - credMass (re=uniroot(g,c(1,1e5))) curve(g(x),1,150,bty="l") ; abline(h=0,lty=3) c(re$root,f(re$root)) http://rio2016.5ch.net/test/read.cgi/math/1723152147/846
860: 132人目の素数さん [sage] 2025/06/01(日) 10:41:31.84 ID:/PZFDI/g はい、Gelmanらの推奨は確かに進化しており、近年ではハーフt分布(half-t)がより一般的に推奨されています。この変化の背景と具体的な推奨内容を、理論的根拠と実践的なアドバイスに分けて解説します。 1. Gelmanの推奨の変遷 (1) 初期(2006年頃): ハーフコーシー(自由度ν=1)の推奨 推奨理由: 分散パラメータの弱情報事前分布として適切 裾が重く、極端な値への過剰なペナルティを回避 問題点: 自由度ν=1ではスケールの選択に敏感 小規模データで不安定になる可能性 (2) 近年(2013年以降): 自由度ν>1のハーフt分布へ移行 推奨理由: 自由度ν=3〜7でより安定した推定が可能 スケールパラメータの影響が緩和 代表的な論文: Gelman et al. (2013), "The Prior Can Often Only Be Understood in the Context of the Likelihood" http://rio2016.5ch.net/test/read.cgi/math/1723152147/860
871: 132人目の素数さん [sage] 2025/06/12(木) 09:46:29.84 ID:z7P0Lqdi Bayesian Computation with RでRのコードが理解できなかった。バグだとおもったのだが、 https://bayesball.github.io/bcwr/corrections.2nd.edition.txt のerrataにも掲載がないのでAIに聞いてみた。 >> 対数ヤコビアン項が間違っていると思う。 # theta=c(log(eta/(1-eta)),log(K)) > LearnBayes::betabinexch function (theta, data) { eta = exp(theta[1])/(1 + exp(theta[1])) K = exp(theta[2]) y = data[, 1] n = data[, 2] N = length(y) logf = function(y, n, K, eta) lbeta(K * eta + y, K * (1 - eta) + n - y) - lbeta(K * eta, K * (1 - eta)) val = sum(logf(y, n, K, eta)) val = val + theta[2] - 2 * log(1 + exp(theta[2])) return(val) } <bytecode: 0x000001a5a980e758> <environment: namespace:LearnBayes> これが正しいのでは? betabinexch <- function (theta, data) { eta = exp(theta[1])/(1 + exp(theta[1])) K = exp(theta[2]) y = data[, 1] n = data[, 2] N = length(y) logf = function(y, n, K, eta) lbeta(K * eta + y, K * (1 - eta) + n - y) - lbeta(K * eta, K * (1 - eta)) val = sum(logf(y, n, K, eta)) val = val + theta[1] + theta[2] - 2 * log(1 + exp(theta[1])) # log Jacobian term return(val) } << いずれのAIも >あなたの指摘は正しいです。対数ヤコビアン項に問題があります。 という趣旨の返事が返ってきた。 http://rio2016.5ch.net/test/read.cgi/math/1723152147/871
905: 132人目の素数さん [] 2025/06/21(土) 18:47:37.84 ID:iVrSlwPC >>902 傑作だと思ってるアンタが一番傑作 http://rio2016.5ch.net/test/read.cgi/math/1723152147/905
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.028s