Kosugitti's BLOG

アンドロイドは正規分布の夢を見るか

この画面は、簡易表示です

R

Macのrstanは負担が大きい?

結論から先に言うと,OS環境下によって挙動が違いますよ、って話。特にMacは不利です(´Д` )

 

rstanのサンプルコードで8schoolsというのがありますが,それの実行にかかる時間が実は全然違う。

Ubuntuとwindowsはいずれもmacの仮想環境上で働いているんだけど,実行結果はこんな感じ。

まずUbuntu.

rstan_ubuntu

4つめの鎖だけですが,瞬殺(0.04sec)。次いでWindows.

rstan_win

これも0.05sec。ところがMacだと

rstan_mac

0.5sec…。いや,十分速いんですけど,10倍の違いがあるのはびっくり。

これは簡単な回帰モデルだから,ほとんど時間を感じませんけど,今個人的に書いているコードはちょい複雑。なので,Macで300秒ぐらいかかって,仕方ねえなあと思っていましたが,共同研究者がどうも結果をスイスイ出すので,?とおもって環境を変えてUbuntuにしてみたら,13secで答えが出た。コレはちょっと驚き。

多分rstanのコードがmacのコンパイラに最適化されていないんでしょうね。詳しくないのでわかりませんが。

ちなみに,結果ですが,それはそんなに心配しなくてもOKだとおもう。順にUbuntu,Windows,Macでの結果をのせます。

rstan_result.ubuntu

rstan_result_win

rstan_result_mac

乱数の発生機序がちがったりするから,同じになるはずは内し,まあ少なくとも1の位のオーダーでは狂ってないし,収束の程度(Rhat)も「こっちなら収束するのに?!」なんてことはないようです(たぶん)。

絵面を見ると,Mac>Ubuntu>Winの順で美しいですが,スピードが遅すぎるのはちょっと困るなぁ。ということで、当方しばらくは仮想環境上で仕事しようと思います。

 

※もし壮大な勘違いかなんかで,こうすればいいんだよ,というご指摘があればお願いします。



いろいろなrstanの入れ方

rstanをWindows,Mac,Ubuntuに入れた雑感。

一番入れやすかったのはUbuntu.普段のパッケージもコンパイルしながら遣って行くことが多いからか,あっという間に終わる、ということはないんだけど,丁寧に一つ一つRcpp,inline,rstanをコンパイルして入れていく。特にエラーもないので,待っているだけでいい。g++コンパイラとの相性の良さがありがたい。(参考記事)

次に入れやすかったのはWindows.Rtoolsというソフトの追加インストールが必要で,そこにcygwinのコンパイラが入っているが,ユーザーは気にするほどでもない。インストールするときに,PATHを書き加えることを忘れずに。後はRcppやinlineをパッケージとして入れればよし。ただ,Program Filesフォルダなど,デフォルトの場所にパッケージ等を入れてしまうと,rstanのインストールのときにこける。私はCドライブ直下にmyRlibフォルダを作って回避した。後はスイスイ進みます。

Ubuntuとwindowsの場合,コンパイラがちゃんと入っているかどうかを確認するコードで,cxxfunction関数を使うところがあるけど,ここでエラーが出ることもある。そんな場合は,cppFunctionで書き直すとよい。これらの違いはよくわかってないんだけど,ここはコンパイラがあるかどうかを各にするだけのところだから,ね。(参考記事1/参考記事2)

 

面倒だったのがMac。コンパイラを入れるためにXcodeをインストールする必要がある。さらに,コンパイルのオプション指定等でMakevarsファイルを不可視フォルダに作る必要があり,インストール最中も公式サンプルの通りにやるとwarningが出る。このwarning,出たまま無視していてもrstanはなんとか入るんだけど,実際の計算時にちょっと挙動が怪しい。

rstan users MLの記事を参考に,Makevarsファイルを次のようにしたらエラーなくコンパイルできるようになる。

g++をclang++に変えるところがミソね。関連記事は自前だけどこちら

 

まあコンパイルできてしまえば,後はいいんだけどね。コンパイル後のマシン性能の比較については、別記事を立てる予定。

※ちなみに,当方メインはMac.Ubuntu,Windows8はParallels desktopで仮想環境をくんでいます。



広島ベイズWSでベイズ因子分析の話をしてきました

昨日は魁!ベイズ塾とDARMによるマルコフ連鎖モンテカルロ法WS(MCMCWS)がありました。

そもそもどういう話をしようか,という打ち合わせの場に居合わせなかったもので,ある日Twitterでメンショんが飛んできて「@kosugittiは因子分析」とだけ書かれていたのが始まり。

ベイズ推定は何となく分かってましたが,それを因子分析に使うときにはどういう仮定,分布を考えるのかとか,長所短所はなにかとか,実際にどうやって動かすのか,といったことは知らなかったので,慌てて勉強。因子分析大好きっこだからご用命されたのであって,知りません・分かりませんでは恥ずかしいからな,と。もう必死ですよ。

忙しい合間を縫って,一ヶ月半ぐらい頭の中でずーっと「どうしようどうしよう」と考えてましたが,まあ終わってしまえばいい思い出。あとでスライドや資料はまとめてこのサイトにでもアップします。

 

他のメンバーは,比較的基本的な所だったり専門的な所だったりで,事前に資料を拝見した所,とっても分かりやすく丁寧だったので,これはいいなあと思っていたが,懇親会で聞いたら他の人たちも「この日のために必死に勉強した」とのこと。またまたご冗談を。

とにかく,とりあえず使ってみよう,こうやって報告してみようといったMCMCを初心者向けに実践を解説するワークショップは,本邦初ではなかったかと。Ustの視聴者もmax200人ぐらいいたそうで,大盛況,大成功でした。

 

あー,楽しかった。



OS X 10.9.2のR3.1.0にrstan2.2.0を入れる

知らない人には何のこっちゃというタイトルでしょうが、端的に表現するとこうなります。

R3.1.0 Spring Danceがさる4/10に公開されて,喜び勇んでいれたはいいけど,そこそこでかいアップデートなのでパッケージの入れ直しが必要なのです。で,MCMCに必要なStanをRからあつかうrstanパッケージをインストールしよう,というところで今日は色々時間がかかってしまった。でも問題解決したので,備忘録代わりに記録しておきます。

 

まず,rstanパッケージを入れるには,普通にCRANから選んでいれるんじゃなくて、自分の環境でソースファイルからくみ上げないと行けない,というのが現状。そのうちバイナリも提供してくれるかもしれないけど,今しばらくはそうならないので,頑張っていれるしかない。ちなみに,そのために準備するものとしてC++コンパイラが必要で,マカーはXcodeとXcode  Comman Line Toolsも必要。XcodeはApp Storeから,Command Line Toolsのいれかたはこちらのサイトを参照するといいです。

当方,OS X 10.9.2,Xcodeもこないだアップデートがあって,今試した環境はXcode 5.1.1です。

インストールの詳しい方法は,Stanのホームページから Download and Get Startedへ移動して,中に書いてあるのをしっかり読んで追いかければオッケー。

なんだけど,ちょっとトラップが。これはRの方の話なんだけど,rstanにはRcppとinlineパッケージもいるので,この二つをCRANからとってこないといけない。普通にinstall.packagesで行きたいところなんだけど,実はこの後のrstanのコードをコンパイルするときにRcppの挙動が問題になるようで,Rcppパッケージもソースから,自分の環境でコンパイルしないといけない(これをせずにやるとRが飛んでいくようになってしまう)。これは多分R3.1.0とRcppパッケージの間の問題なので,そのうち解決されるようになるかも,だけど,4/16のrstanMLでのやり取りではRcppを自分でコンパイルしたらいけるぜー,としか書いてない(明確な解決法の指示がない)ので,今しばらくは従うべし。

ソースからインストールしたことなんかねえよ,という人でも(Xcode等の環境を整えた上で)R上で

とするだけだから,そんなに心配しなくていいよー(というかこの後の方が面倒だw)。

Rcpp,inlineライブラリとCコンパイラがちゃんと整っているかどうかを確認するためには,次のコードを実行すればよい(とrstanのサイトにも書いてある)。

これでhello worldとコンソールに示されたら、準備OKってことです。

ちなみに,既にrstanパッケージがあって,書き換える・やり直す場合は,次の数行を実行しておきましょうぞ。これで取り外せますからな。

さて,ここからrstanパッケージを作っていきたいんだけど,環境を整えるファイル,Makevarsを”~/.R/”に作らないといけない。一般的なユーザーにとっては,不可視フォルダからテキストファイルを作らないといけないので,少しハードルが高く感じるかも。私はMagicanというmac環境を整えるアプリを愛用していて,このソフトの「パラメタ>Finder」から不可視ファイルの表示,Rootからの表示にチェックを入れて,見えないところも見えるようにし,ルートディレクトリのすぐ下に.Rフォルダ,その中にエディタmiでMakevarsファイルを作る・・・という手法でやりました。

でも,これも簡略化されたやり方があって,上のやり方がよくわかんない,という人はR上で

とすればいいです。これはRがその場所に設定ファイルを作るプログラムになってます。もし既にMakevarsファイルがあったら,その内容が表示される仕組み。

このファイルを作り終わったら、後は簡単で,次の二行を実行するとなにやら色々作業が始まるのでlす。

ネットからソースコードをとってきてコンパイルするので,ネット環境は必須ね。しかも,作成にはちょっとばかり時間がかかるし,その中で合計6つぐらいの警告が赤字で出るから、大丈夫かよこれ、と思いながら進めることになります。でも,警告なので多分大丈夫で,最後に「DONE(rstan)」と出ればパッケージができたってこと!

あとは一旦Rの再起動をして,eight schoolsなどのサンプルコードを走らせてみたらいいんじゃないかな。多分,ベクトル演算で素早くなったMCMCの世界がやってきます。

ミソはRcppも自分でコンパイルする必要がある,ってところだったよ。それを知らなかったから,rstanは作れるんだけどサンプルコードを走らせている最中に飛んでいくとか,「EXPECTATION FAILURE LOCATION:」ってエラーが出て,もう何度か泣きそうになりました。

まだrstanを使ってみようと思っているMac Userは国内では少ないだろうけど,何かの足しになるかと思って記事にしました。

 

追伸 なんでrstanを入れたかというと,「ベイズ推定による多変量解析入門」ってので話す必要があって,MCMCpackだけじゃ面白くないかもな,とちょっと思ったからです。研究会の方も,よろしければご参加どうぞ。

さらに追記)2014.06.15 Ubuntu14.04に入れたい場合はこちらの記事をどうぞ。Thank you @kaztan!



試験と採点

普通紙マークシート読み取りソフトを採用し,今期の試験のいくつかはマークシート試験にしている。

いつもは論述させる試験が多いのだが,系列効果が出やすく,何度も読み直してレイティングし,重みづけて・・・というのが大変だと感じていた。人数が少ない授業のそれだと,ダメだダメだとわかってはいても,受験生の名前がわかってしまうこともあるし,前後の回答に引きずられ評価が歪んでないか?と自問自答を繰り返すのである。自分の中では公平にしているつもりだが,ここで悩むのも辛い。

ということで,機械的に採点できるマークシートにしたのだ。
設問は30〜40問ぐらい用意した。多肢選択でもいいのだが,エラーをなくすために○×問題にし,○なら1,×なら2にマークせよ,という形式にしてみた。
本学は学籍番号が10桁あるので,すべてマークさせると無駄だから,受験番号を別途割り振るという作業もいるが,おおむねマークシートを使った試験はうまくいったように感じている。

試験を作り,読み直すときに,同時に自分もマークしてみる。これが模範解答となり,実際の試験の回答とあわせて読み込んで,模範解答指定をしてやると,自動的に採点してくれる機能がソフトについている。試験問題の推敲や読み取りのチェックなどがここでできるので,一石二鳥である。
100人近い受験生でも,入力はScanSnapのおかげですぐにできる。学生の受験番号入力エラー率は2%ほどで,個別の訂正で十分対応できるレベル。
採点は基本的に0/1にし,csvを吐き出してくれるので,Rで読み込んで項目分析をする。

ltmパッケージで1PL,2PL,3PLモデルをやってみる。
大講義ものでも100人ぐらいだから,項目母数としては安定した推定になっているとは思えない。それでも,IT相関が負になるような(=識別力が負になるような)項目はふさわしくなかろう,と除外したり,Ablityの推定なんかをしてみる。ちなみに,Abilityは素点の総和と相関が0.8〜0.98ぐらいあるので,項目を落としてもほぼ実態とかわらない。

サンプルが少ないのでうまく当てはまらないこともあるが,それよりも興味深かったのはpsychパッケージのirt.faをしたときだ。「社会心理学」の試験結果が二因子構造になったのだ。基本的に試験だから一因子のほうが望ましいと思ったが,項目をみてみるとどうも基礎的な知識の正誤因子と,論理的に考えて回答する項目因子に分かれたようだ。しかもそれぞれの因子間相関がほぼ0であったことが興味深い。
この試験は,マークシートに加えて論述問題も一問用意しておいたのだが,そこの採点との相関もそれぞれ0.3以下であった。論述はまた違う能力なのかもしれない。
そこで,IRTでの各因子のAbilityを推定し,論述問題の得点とあわせて重み付き総和で採点した。重みはやや論理的思考の方に大きくつけた。

心理学測定法のほうは,基礎的知識を問う問題がおおかったので,TICが負の方向で高く,高い能力についての弁別力のない試験であることが明らかになった。これはまあ,テストとしてはどうかというところもあるが,そこを狙いにして作ったのだからある意味狙い通りである。

来年は,このデータをもとに良問による試験問題プールを増やしていきたいなあと思う次第である。

ちなみに,IRTは100人ぐらいの試験だと項目母数があまり安定しないが,MCMCpackパッケージのMCMCirt1dをつかって推定すると,まぁまぁ収束して,それっぽい値がでた。MCMCってすげえな,とも思った。

試験のたびに統計のお勉強にもなっている。

[amazonjs asin=”B00FYN95ZO” locale=”JP” title=”マークシート読取君3″]



RとTeXのいい関係

最近のマイブームはTeXです。たぶん[改訂第6版] LaTeX2ε美文書作成入門がでて,Texlive2013ベースで導入するようになり,導入の敷居が低くなった=プラットフォーム化がすすんだことが原因の一つなんだろうと思う。これでうちみたいな文系心理の学生にも紹介しやすくなったし。

ところで,昨日必要に迫られて(理由はこちら)psychパッケージのヘルプを読んでいたら,ずいぶんと便利な関数があることを知った。psychパッケージの結果をTeX出力してくれる関数群だ。結果の美しさに感動したので,ついでにRとTeXのつなぎ方について,わかったことを書いておく。ここで紹介するのは,

  1. RstudioのSweave機能
  2. xtablesパッケージ
  3. psychパッケージのいくつかの関数

です。

1.RstudioでSweaveする

これはRStudioで新規Sweaveファイルを開くだけの簡単な方法。documentclassから始まり,\end{document}で終るファイルが開かれる。Rの式や関数を<<>>==から@の中に記載し,Compile PDFボタンを押すだけ。Rに入力したコードも表示させたかったら,echo=TRUEのオプションを着けておく。プロット等の図版が欲しい場合は同様に,fig=TRUEのオプションも書いておく。

結果はこちらにあるとおり。図のファイルは自動的にPDFファイルを作ってくれたりするから大変便利。

ただし,日本語入力等には対応していないし,時々うまく行かないこともあるから,自分でソースを見て修正をかけたほうが良いかも。その場合は,コンソールで

とし,texファイルを出力させる。直すべきところとして,

  • スタイルファイル,Sweaveとaeをとってくる必要がある。こちらのサイトを参照。
  • documentclassを{jsarticle}に。なんなら[uplatex]で。
  • usepackage{graphicx}を追加。
  • PDFをincludegraphicsするときにはBounding Boxが必要。

このへんで対応できるかなと。

ところで,コンパイルはuplatexで,というのがこれからのスタンダードのようだし,いろいろエラーがでたり書き直すのも面倒,ということもあるでしょう。自分のTeX書式テンプレートを用意しておいて,そこにRの結果等を書き込みたいな,と言う場合には次の2.や3.の方法を使いましょう。

2.xtableパッケージのxtable関数

これはもうそのまま,次のコードを走らせればすぐにわかる。

プロンプトにTeXのコードがでてきたと思うので,それを自分のTeXテンプレートに書けばOKなわけだ。xable関数は色々な書式に対応したテーブルを書き出してくれる。

3.psychパッケージの様々な関数

これが本題。psychパッケージの中に入っているいくつかの関数で,自動的に表を出力してくれるのがありがたい。関数はそれぞれ次の通り。

  • df2latex…データフレームをTeXにしてくれる
  • cor2latex…相関行列をTeXにしてくれる
  • fa2latex…因子分析の結果をTeXにしてくれる
  • omega2latex…信頼性係数ωの情報をTeXにしてくれる
  • irt2latex…項目反応理論の結果をTeXにしてくれる
  • ICC2latex…ICCの情報をTeXにしてくれる

ソースコードは次のような感じ。上のxtableパッケージの結果と合わせてコンパイルしたtexソースPDFも資料として上げておきます。

ちなみにTeXとは関係ないけど,psychパッケージは因子分析の図を書いてくれるfa.diagram関数や,fa.plot関数ってのもあるから面白いねえ。アップデートもしっかりあるし,今後も展開に期待したいパッケージの一つです。

追記 Texlive2013にはXeLaTeXというUTF-8対応のtexがあるので,これを使えばRstudioのSweaveからも日本語でコンパイルできるよ,との情報をいただきました。ありがとうございました。



電子書籍出版への遠い道のり

ということで,ePubにできましたよ,っと。Sigilで微調整をして,表紙の絵を探してきて着けたりして,それっぽい体になりました。

後はそれを公開するんだけど,共著者との共通見解で「お金儲けにしたくないよね」というのがあって。

統計環境Rのチュートリアルセミナーでつかったテキストなので,みんながRを使ってくれるきっかけになってくれたら嬉しいし,何よりLaTeXやSphinx(やReVIEW)でいろいろやるのが楽しかった。なんならePubにして電子出版してみたい,というところまで楽しみの一環で,その経験が報酬として得られたらそれ以上は別にいいや,という感じ。著者が複数いるので,取り分で喧嘩になったりするのも嫌だし。

ということで,フリーソフトウェア精神でやろうと思ったわけです。クリエイティブ・コモンズのCC-BY-SA(表示と継承はお願いね)ライセンスでやろうということになって。でももちろん,できれば多くの人に使ってほしいわけだから,みんなの手の届きやすいところにおいておきたい,ということで置く場所をいろいろ探したわけです。

有名どころはAmazon(Kindle),そしてPaboo。まずPabooで,と思っていたんだけど,なんとここは自作のePubをアップロードするためには有料会員にならないと行けない。しかも月額525円って,ちょっとうっとおしい金額。なんか違うな,と思って今度はKindle Direct Publishingをみた。ところが今度は,アカウント登録の際に銀行口座を明記する等の手続きが必要。しかもアメリカの方で印税が発生するため,Amazonが源泉徴収をしちゃうんだけど,それを回避するためにはアメリカの税当局に申請して固有ナンバーを付与してもらう手続きが要るっていう。他にも,形式はePubでアップロードできるけど,mobiというKindle専用形式に変換されちゃうということがあって,面倒だなあという印象。しかも一番の問題は,最低でも99円という値段を付けなくちゃ行けない。つまり,お金儲けしないといかんのです。

PabooやAmazonの言い分もわかります。無料で出版してやるんだから,どこかでマネタイズするために,会員経費としてとるか,出版手数料としてとる(=そのため定価0円は困る),ということでしょうね。そもそも儲けたくない人なんていないでしょう?ってことでしょう。

正直,資本主義怖いなー,と思った。資本主義から逃げられないようになってる。俺はお金儲けがしたいんじゃなくて,ただ楽しみたい&楽しませたいだけなのに。お金が関わらない楽しみ方ができないように,システムが迫ってくるのです(´Д` )

とりあえず,無料で出版&無料で公開してくれるところを探さないといけない。ひとまずこのサイトには上げておいて(ただしWordpressはepub形式を異端と見なすので,このサイトを参考に設定ファイルの書き換えが必要でした。),あとはGoogle Play Booksが無料でアップ・ダウンさせてくれそう(DRMフリーで)なので登録申請中。他にも探してみるつもりだけど,ちょっと望み薄かなあ。

いやいや,なかなか道のりは遠いものです…。

 

追伸 ちなみに,あたかも俺が奮闘しているように書いてしまいましたが,実際手を動かしたり色々調べたりしてくれてるのは,同僚の押江先生です。お世話になってます。



上三角行列のデータから対象行列を作る

MDSを実際のデータでやってみよう,という演習をした時の話。

学生には距離行列をmatrix型で全部入れさせたんだけど,自分でやる時は効率が悪いなあとおもっちゃう。だって,対象行列だもん。

上三角分のデータだけ入れたら,対角は0なんだし,自動的に対象行列にしてくれるように関数を書きたいなあ,とおもって書きました。たいしたことはない関数ですが,どこかにニーズがあるかもしれないのでさらしておきます。

 

 

ちなみに,青木先生のページにも同様の関数があるんだけど,これは対角にもデータが入っちゃうのでちょっと今回の狙いとは違う。
一応,ご参考までに>>三角行列の要素を与えて対象行列を作る



t検定の効果量における信頼区間

t検定の効果量における信頼区間,が知りたかったわけですよ。

t検定の効果量と言えばdな,といううすーい理解しかしてませんでしたが,必要が生じたのでちょっと調べてみた。

非常に混乱してしまうのだが,街亜・岡田のテキストにもあるように,dの表記というか,表現に混乱があるのだな。

  1. オリジナルの,Cohenのd
  2. Hedgesのd
  3. Hedgesのg(Hedgesのd.unbiased,バイアス補正されたd)

といった感じ。とりあえず,1.のdは普通使われないので無視していい。で,2をCohenのdと書いてある本もあるらしくってややこしい。表記はいろいろだけど,Hedgesベースで,d.biased,d.unbiasedで分ければわかりやすいかも。

ただ,分析プログラムによってはその書き方がぶれるわけです。

ここでは効果量とその信頼区間を出してくれるcompute.esパッケージとrpsychiパッケージで比較してみます。

 

ここにあるように,compute.esパッケージのmes関数が出すのは,dとしてd.biased ,gとしてd.unbiasedのふたつ(小数点以下を表示させるdigオプションで下5桁まで出した)。rpsychiパッケージはesとしてd.unbiasedを出してくれている。いずれも信頼区間まで出してくれるのでいいんだけど,これがバイアス補正のかかったd,あるいはHedges’s gになってる,ということに注意。

ついでに,街亜・岡本のテキストにそって手計算したら次のようになる。dのバイアス補正についてはこちらのスライドを参照した。

Deltaはついでに出しただけです。詳細はテキスト参照。

ともかく,こうして書いてみてやっと整理できた。dとかgとか,もう面倒だなあw

 

 

[amazonjs asin=”4326250720″ locale=”JP” title=”伝えるための心理統計: 効果量・信頼区間・検定力”]



偏η^2の信頼区間を求める

社会心理学会のWSで,効果量の信頼区間の話をやっていた。

分散分析では,anovakunが偏\eta^2(partial \eta^2)をpeta=Tオプションで出してくれるから愛用しているんだけど,この偏 \eta^2の信頼区間を出したらもっとわかりやすいよ、という話。

確かに,その変数が分散のどの程度を説明するかという指標なので,その信頼区間があるとわかりやすいよね。

 

ところが,WSでは「RのMBESSパッケージを使えば簡単ですから」とは紹介されていたものの,このMBESSパッケージがなかなかくせ者で,どのようにして算出していいのかがわかりにくい。

こちらのサイトを参考にして,これ経由のソースをダウンロードしてできるらしいことはわかったんだけど,MBESSパッケージではどうやるの。。。っと悩んで,やっと見つけたので答えを記録しておきます。(追記・訂正があります)

こうすることで,偏\eta^2とその95%信頼区間が描けます。conf.limits.ncf関数がメインで,信頼区間のオプションはconf.level=0.95がデフォルトになっているので,これで95%信頼区間がでます。
ちなみに,括弧でくくることでprintをしていることに注意ね。

自由度とF値だけで算出できるかと思いきや,非心F分布non-central F distributionとやらが出てきて,後輩やらいつもの先生のサイトに助けてもらったり,とうろうろしましたが,答えがスッキリ出たのは気持ちいいなあ。

こうなると,他の効果量の信頼区間も欲しいところだが,今はちょっと時間がないので、また今度。

 

 

追記

この算出式でなくても,

で算出できることを,南風原先生直々にご指摘いただきました!感謝です!

なお,下限,上限を求める式中のdf1+df2+1のところは,WSの中でも誤っていることが指摘されていて(聞いてたのに理解してなかった!スミマセン),正しくはNであるとのこと。G*powerでは正しく推定されているよ、という話はここに関係していたのですね。

 

In Table 2 in Faul et al. (2007), the noncentrality parameter \lambda for “Multiple regression: increase of R^2” is given as f^2*N.
This parameter is implemented in G*Power.But in Cohen (1988, p.414), the noncentralityparameter is given as f^2* (u+v+1), where u and v are the df for numerator anddenominator, respectively.

 

ということで,正確に書き直すと,

となります。
まだまだ勉強が足りないなあ。テキストからやり直しだぁ!

[amazonjs asin=”4641121605″ locale=”JP” title=”心理統計学の基礎―統合的理解のために (有斐閣アルマ)”]


  • Categories:


top