高校数学の質問スレ(医者・東大卒専用) Part438 (991レス)
上下前次1-新
抽出解除 レス栞
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
135: 2024/08/23(金)08:31:17.84 ID:Am/2METs(1) AAS
>>133
数値一致wwww
等号の意味すら分からないのかよwwww
164(1): 2024/08/25(日)14:05:54.84 ID:1ZiEG71e(1/6) AAS
>>160
結局お得意のGPTでも答えられなかったから答えが出るまでダンマリ決め込むしかなかったんだろ?
悔しかったら答えが出る前に答えだせよタコw
>>163
アンタと同じ文体でアンタがシカトされてる時にしれっと書き込み
これが自演じゃなくて何なんだよ?
166: 2024/08/25(日)14:13:20.84 ID:QiSGCEaw(2/4) AAS
>>164
ChatGPTに入力してみたら、正解が返ってくるから。
323(2): 2024/11/18(月)13:33:45.84 ID:EFXQWzbV(2/2) AAS
底辺シリツ医でRが使える医師をみたことがないな。
R(PythonでもWolframでもいいけど)が使えると、こういう計算ができるので
必要なスピッツや試薬の数を準備できる。
日本人の血液型はAB:B:O:A=1:2:3:4であるという。
無作為に何人の血液型を調べて 調べた人にすべての血液型が含まれる確率を99%以上にしたい。
何人以上調べればよいか?
99%を越えたときの確率を分数で算出せよ。
374: 2024/12/05(木)08:04:52.84 ID:eKN5wIeH(1) AAS
>>373高校生相手にバカにされてそんなに楽しい?
410: 2024/12/10(火)08:07:33.84 ID:ThoL421/(2/2) AAS
71:卵の名無しさん:2024/12/10(火) 07:45:14.38 ID:m2CrVHD7
尿瓶ジジイさぁ
ルールは守ろうぜ高校生に怒られてんじゃん
そんなんで誰がお前を医者だと信じんだよ
こんな糞スレならいくら荒らしても良いけど他所様に迷惑かけちゃ駄目だろ
まずは謝ろうな?それが社会人としての最低限のマナーだよ
本当の事ばっかり言ってゴメンな
お前が医者のフリしても今度はもう少し優しく間違いを指摘してあげるから戻っておいで
531(1): 01/10(金)02:06:10.84 ID:5hjYx106(1/2) AAS
Fimoseくんはロータリーエンジンの動くシェーマの動画を作れないの?
完成した動画をみてもハウジングが何かわからんようだし。
やっぱり、弄れるのはforeskinだけ。
606: 01/22(水)12:35:00.84 ID:Z2QDPzpT(1) AAS
>>601
フルボッコで草
624(1): 01/24(金)16:18:18.84 ID:oqbYUASM(1) AAS
>>611
本当だ問題とかちゃんと読んで無かったけど
最小値4じゃねーの?どうやって計算して10になったの?
665: 02/05(水)14:33:01.84 ID:7/CBuIct(1/2) AAS
>>661-664
また、書き込み出来なくなるぞw
671: 02/06(木)11:54:33.84 ID:PCP+ZBYn(1) AAS
偽医者は友人と呼べる者が居なく実社会でも余程嫌われている。精神患者の如く(真性?)関係ない事をグダグダと言う様では誰も寄り付かないだろ。
674: 02/06(木)16:20:51.84 ID:rViXyt0w(2/13) AAS
>>673
Fラン大学では画像を検体というのか?
682(1): 02/06(木)16:47:16.84 ID:Kqo8KOCs(3/6) AAS
機器だと器具も含まれちゃうな
機械、装置だね
質問と出題の違いといい、言葉の違いを理解できないんだね
846: 05/24(土)21:16:24.84 ID:VetM3rz7(5/5) AAS
# dbeta(L,a,b) == dbbeta(U,a,b)
# Solve[L^(a-1)(1-L)^(b-1)==U^(a-1)(1-U)^(b-1), b]
L=1/7
U=1/5
credMass = 0.95
f = function(a) 1 + ((a - 1) * log(U / L)) / log((1 - L) / (1 - U))
g = function(a) pbeta(U,a,f(a)) - pbeta(L,a,f(a)) - credMass
(re=uniroot(g,c(1,1e5)))
curve(g(x),1,150,bty="l") ; abline(h=0,lty=3)
c(re$root,f(re$root))
860: 06/01(日)10:41:31.84 ID:/PZFDI/g(2/2) AAS
はい、Gelmanらの推奨は確かに進化しており、近年ではハーフt分布(half-t)がより一般的に推奨されています。この変化の背景と具体的な推奨内容を、理論的根拠と実践的なアドバイスに分けて解説します。
1. Gelmanの推奨の変遷
(1) 初期(2006年頃): ハーフコーシー(自由度ν=1)の推奨
推奨理由:
分散パラメータの弱情報事前分布として適切
裾が重く、極端な値への過剰なペナルティを回避
問題点:
自由度ν=1ではスケールの選択に敏感
小規模データで不安定になる可能性
(2) 近年(2013年以降): 自由度ν>1のハーフt分布へ移行
推奨理由:
自由度ν=3〜7でより安定した推定が可能
スケールパラメータの影響が緩和
代表的な論文:
Gelman et al. (2013), "The Prior Can Often Only Be Understood in the Context of the Likelihood"
871(4): 06/12(木)09:46:29.84 ID:z7P0Lqdi(1) AAS
Bayesian Computation with RでRのコードが理解できなかった。バグだとおもったのだが、
外部リンク[txt]:bayesball.github.io
のerrataにも掲載がないのでAIに聞いてみた。
>>
対数ヤコビアン項が間違っていると思う。
# theta=c(log(eta/(1-eta)),log(K))
> LearnBayes::betabinexch
function (theta, data)
{
eta = exp(theta[1])/(1 + exp(theta[1]))
K = exp(theta[2])
y = data[, 1]
n = data[, 2]
N = length(y)
logf = function(y, n, K, eta) lbeta(K * eta + y, K * (1 -
eta) + n - y) - lbeta(K * eta, K * (1 - eta))
val = sum(logf(y, n, K, eta))
val = val + theta[2] - 2 * log(1 + exp(theta[2]))
return(val)
}
<bytecode: 0x000001a5a980e758>
<environment: namespace:LearnBayes>
これが正しいのでは?
betabinexch <- function (theta, data)
{
eta = exp(theta[1])/(1 + exp(theta[1]))
K = exp(theta[2])
y = data[, 1]
n = data[, 2]
N = length(y)
logf = function(y, n, K, eta)
lbeta(K * eta + y, K * (1 - eta) + n - y) - lbeta(K * eta, K * (1 - eta))
val = sum(logf(y, n, K, eta))
val = val + theta[1] + theta[2] - 2 * log(1 + exp(theta[1])) # log Jacobian term
return(val)
}
<<
いずれのAIも
>あなたの指摘は正しいです。対数ヤコビアン項に問題があります。
という趣旨の返事が返ってきた。
905(1): 06/21(土)18:47:37.84 ID:iVrSlwPC(1/2) AAS
>>902
傑作だと思ってるアンタが一番傑作
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.044s