【ITと数学|YouTube】データサイエンス研究所

【ITと数学|YouTube】データサイエンス研究所
/▼/■【RSS】【ITと数学|YouTube】データサイエンス研究所

powered by まめわざ

【ゼロから丁寧に始めるpython#9】オブジェクトの特徴
【ゼロから丁寧に始めるpython#8】クラスと属性
【ゼロから丁寧に始めるpython#7】関数と引数
【ゼロから丁寧に始めるpython#6】制御フロー
【ゼロから丁寧に始めるpython#5】複数の値を持つデータ型
【ゼロから丁寧に始めるpython#4】基本的なデータ型
【ゼロから丁寧に始めるpython#3】Terminalとpath
【ゼロから丁寧に始めるpython#2】インストールと環境構築
【ゼロから丁寧に始めるpython#1】pythonの概要
【Dockerの基礎#9】Jupiter Lab環境の構築
【Dockerの基礎#8】LAMP環境の構築
【Dockerの基礎#7】Docker Compose
【Dockerの基礎#6】Dockerfile
【Dockerの基礎#5】Network
【Dockerの基礎#4】マウントとVolume
【Dockerの基礎#3】コンテナのライフサイクル
【Dockerの基礎#2】Dockerの概要
【Dockerの基礎#1】Dockerと仮想環境
【ゼロから始めるGitとGithub#9】Githubの基礎知識
【ゼロから始めるGitとGithub#8】Githubでチーム開発
【ゼロから始めるGitとGithub#7】README.md
【ゼロから始めるGitとGithub#6】Githubの基礎
【ゼロから始めるGitとGithub#5】Gitの開発フロー
【ゼロから始めるGitとGithub#4】ブランチとマージ
【ゼロから始めるGitとGithub#3】ファイルの状態とgitignore
【ゼロから始めるGitとGithub#2】Gitの基礎
【ゼロから始めるGitとGithub#1】GitとGithubの基礎
【BootstrapでWebアプリデザイン#7】BootstrapでWebアプリデザイン
【BootstrapでWebアプリデザイン#6】さまざまなデザイン
【BootstrapでWebアプリデザイン#5】Formのデザイン
【BootstrapでWebアプリデザイン#4】ボタンのデザイン
【BootstrapでWebアプリデザイン#3】表示のデザイン
【BootstrapでWebアプリデザイン#2】テキストのデザイン
【BootstrapでWebアプリデザイン#1】Bootstrapの基礎
【FlaskでWebアプリ作成#11】画像生成アプリ
【FlaskでWebアプリ作成#10】物体検知アプリ
【FlaskでWebアプリ作成#9】単回帰分析アプリ
【FlaskでWebアプリ作成#8】偏差値計算アプリ
【FlaskでWebアプリ作成#7】簡単なWebアプリ作成
【FlaskでWebアプリ作成#6】画像とプロットの利用
【FlaskでWebアプリ作成#5】関数の利用
【FlaskでWebアプリ作成#4】Formの利用
【FlaskでWebアプリ作成#3】HTMLとCSS
【FlaskでWebアプリ作成#2】Flaskの導入
【FlaskでWebアプリ作成#1】Flaskの概要
【強化学習⑩】DQN
【強化学習⑨】SARSA
【強化学習⑧】Q-learning
【強化学習⑦】モンテカルロ法(実装)
【強化学習⑥】モンテカルロ法とTD法(理論)
【強化学習⑤】価値反復法
【強化学習④】方策反復法
【強化学習③】ベルマン方程式と動的計画法
【強化学習②】環境とエージェント
【強化学習①】強化学習の概要
【統計的因果推論⑩】欠損データ処理と因果推論
【統計的因果推論⑨】機械学習と因果推論
【統計的因果推論⑧】DIDとCausal Impact
【統計的因果推論⑦】回帰不連続デザイン(RDD)
【研究室あるある】すぐホワイトボードを使って説明する奴 #Shorts
【統計的因果推論⑥】操作変数法とノンコンプライアンス
【研究室あるある】入りたてと1年後、眠い時の違い #Shorts
【統計的因果推論⑤】傾向スコア
【統計的因果推論④】回帰分析の利用
【統計的因果推論③】反事実モデルと因果効果
【統計的因果推論②】因果推論で扱う確率の基礎
【統計的因果推論①】統計的因果推論とは?
【Rでベイズ統計モデリング#22】DGLM(ポアソン分布)
【Rでベイズ統計モデリング#21】DGLM(ベルヌーイ分布)
【Rでベイズ統計モデリング#20】周期性のモデル化
【Rでベイズ統計モデリング#19】ローカル線形トレンドモデル
【Rでベイズ統計モデリング#18】時変系数モデル
【Rでベイズ統計モデリング#17】ローカルレベルモデル
【Rでベイズ統計モデリング#16】Rで状態空間モデルの概要
【初心者でも分かるデータサイエンス⑥】学習のロードマップ
【初心者でも分かるデータサイエンス⑤】データから見るデータサイエンス
【初心者でも分かるデータサイエンス④】タスクから見るデータサイエンス
【初心者でも分かるデータサイエンス概論③】データサイエンスのさまざまな分野
【初心者でも分かるデータサイエンス概論②】データサイエンティストとは??
【初心者でも分かるデータサイエンス概論①】データサイエンスとは???
【Rでベイズ統計モデリング♯15】ランダム係数モデル(brms)
【Rでベイズ統計モデリング♯14】ランダム係数モデル
【Rでベイズ統計モデリング#13】ランダム切片モデル2(brms)
【Rでベイズ統計モデリング#12】ランダム切片モデル2
【Rでベイズ統計モデリング#11】ランダム切片モデル1(brms)
【Rでベイズ統計モデリング#10】ランダム切片モデル1
【Rでベイズ統計モデリング#9】RでGLMMの概要
【Rでベイズ統計モデリング#8】ロジスティック回帰(brms)
【Rでベイズ統計モデリング#7】ロジスティック回帰モデル
【Rでベイズ統計モデリング#6】ポアソン回帰モデル(brms)
【Rでベイズ統計モデリング#5】ポアソン回帰モデル
【Rでベイズ統計モデリング#4】正規線形モデル(brms)
【Rでベイズ統計モデリング#3】正規線形モデル
【Rでベイズ統計モデリング#2】RでGLMの概要
【Rでベイズ統計モデリング#1】Stanのインストールと基礎
【Rでベイズ統計学#10】多次元ガウス分布のベイズ推定(μ,Λ)
【Rでベイズ統計学#9】多次元ガウス分布のベイズ推定(Λ)
【Rでベイズ統計学#8】多次元ガウス分布のベイズ推定(μ)
【Rでベイズ統計学#7】ガウス分布のベイズ推定(μ,λ)
【Rでベイズ統計学#6】ガウス分布のベイズ推定(λ)
【Rでベイズ統計学#5】ガウス分布のベイズ推定(μ)
【Rでベイズ統計学#4】ポアソン分布のベイズ推定
【Rでベイズ統計学#3】カテゴリ分布のベイズ推定
【Rでベイズ統計#2】ベルヌーイ分布のベイズ推定
【Rでベイズ統計学#1】Rでベイズ統計学概要
【pytorchで深層生成モデル#13】学習テクニックのまとめ(DCGAN)
【pytorchで深層生成モデル#12】画像データセットの作成(DCGAN)
【pytorchで深層生成モデル#11】画像データの保存(DCGAN)
【pytorchで深層生成モデル#10】モデルの保存(DCGAN)
【pytorchで深層生成モデル#9】モデルの確認(DCGAN)
【pytorchで深層生成モデル#8】pytorchでCGAN
【pytorchで深層生成モデル#7】pytorchでDCGAN
【pytorchで深層生成モデル#6】pytorchでGAN
【pytorchで深層生成モデル#5】pytorchでVAE
【pytorchで深層生成モデル#4】pytorchでAE
【pytorchで深層生成モデル#3】Google colaboratoryの概要と制限
【pytorchで深層生成モデル#2】GPUの種類と性能
【pytorchで深層生成モデル#1】概要
【深層生成モデル#7】CGAN
【深層生成モデル#6】DCGAN
【深層生成モデル#5】敵対的生成ネットワーク(GAN)
【深層生成モデル#4】変分オートエンコーダ(VAE)
【深層生成モデル#3】オートエンコーダ(AE)
【深層生成モデル#2】概要(理論編)
【深層生成モデル#1】概要
【pytorchでニューラルネットワーク#11】GPUの利用方法(CNN)
【pytorchでニューラルネットワーク#10】CNN
【pytorchでニューラルネットワーク#9】正則化
【pytorchでニューラルネットワーク#8】クラス
【pytorchでニューラルネットワーク#7】ニューラルネットワーク(Sequential)
【pytorchでニューラルネットワーク#6】DatasetとDateLoaderの扱い
【pytorchでニューラルネットワーク#5】単回帰分析(pytorch)
【pytorchでニューラルネットワーク#4】パラメータ更新(optimizer)
【pytorchでニューラルネットワーク#3】自動微分(backward)
【pytorchでニューラルネットワーク#2】テンソルの基礎
【pytorchでニューラルネットワーク#1】概要
【PythonでCNN#9】CNN
【PythonでCNN#8】Pooling層
【PythonでCNN#7】Convolutional層(逆伝播)
【PythonでCNN#6】col2im関数
【PythonでCNN#5】Convolutional層(順伝播)
【PythonでCNN#4】im2col関数(チャンネル数とバッチサイズ)
【PythonでCNN#3】im2col関数(paddingとstride)
【PythonでCNN#2】im2col関数
【PythonでCNN#1】PythonでCNN概要
【Pythonでニューラルネットワーク#12】ニューラルネットワーク(batchNormalization)
【Pythonでニューラルネットワーク#11】ニューラルネットワーク(Dropout)
【Pythonでニューラルネットワーク#10】ニューラルネットワーク(多値分類)
【Pythonでニューラルネットワーク#9】線形変換と活性化関数と損失関数
【Pythonでニューラルネットワーク#8】単回帰分析(trainデータとtestデータ)
【Pythonでニューラルネットワーク#7】単回帰分析(クラスの利用)
【Pythonでニューラルネットワーク#6】単回帰分析(パラメータ更新)
【Pythonでニューラルネットワーク#5】単回帰分析(誤差逆伝播)
【Pythonでニューラルネットワーク#4】単回帰分析(ミニバッチ・SGD)
【Pythonでニューラルネットワーク#3】単回帰分析(勾配降下法)
【Pythonでニューラルネットワーク#2】単回帰分析
【Pythonでニューラルネットワーク#1】概要
【Pythonの基礎#5】クラス
【Pythonの基礎#4】for文とif文と自作関数
【Pythonの基礎#3】データの可視化(matplotlib)
【Pythonの基礎#2】データの扱い(numpy)
【Pythonの基礎#1】pythonのインストールと基本
【Rで多変量解析#14】構造方程式モデリング(SEM)
【Rで多変量解析#13】パス解析
【Rで多変量解析#12】確認的因子分析
【Rで多変量解析#11】探索的因子分析
【Rで多変量解析#10】数量化3類
【Rで多変量解析#9】数量化2類
【Rで多変量解析#8】数量化1類
【Rで多変量解析#7】クラスター分析(k-means法)
【Rで多変量解析#6】クラスター分析(階層型クラスタリング)
【Rで多変量解析#5】主成分分析
【Rで多変量解析#4】マハラノビスの距離
【Rで多変量解析#3】判別分析(線形判別分析)
【Rで多変量解析#2】重回帰分析
【Rで多変量解析#1】単回帰分析
【多変量解析#15】構造方程式モデリング(SEM)
【多変量解析#14】パス解析
【多変量解析#13】確認的因子分析
【多変量解析#12】探索的因子分析
【多変量解析#11】数量化3類
【多変量解析#10】数量化2類
【多変量解析#9】数量化1類
【多変量解析#8】クラスター分析(k-means法)
【多変量解析#7】クラスター分析(階層型クラスタリング)
【多変量解析#6】主成分分析
【多変量解析#5】判別分析(マハラノビスの距離)
【多変量解析#4】判別分析(線形判別分析)
【多変量解析#3】重回帰分析
【多変量解析#2】単回帰分析
【多変量解析#1】多変量解析の概要
【RStudioで自動レポート作成#9】pdfの利用
【RStudioで自動レポート作成#8】インタラクティブの使用
【RStudioで自動レポート作成#7】テンプレートの作成
【RStudioで自動レポート作成#6】Rコードの利用
【RStudioで自動レポート作成#5】Tex(テフ)コードの利用
【対談#5】データサイエンスのややこしさについて
【RStudioで自動レポート作成#4】CSSコードの利用
【RStudioで自動レポート作成#3】HTMLコードの利用
【RStudioで自動レポート作成#2】マークダウン記法
【RStudioで自動レポート作成#1】RMarkdownの基本
【Rで統計学#9】相関係数の検定と独立性の検定
【Rで統計学#8】分散分析
【Rで統計学#7】母平均の差の検定
【Rで統計学#6】区間推定
【対談4】RとPythonどちらを使うべきなのか?
【Rで統計学#5】点推定
【Rで統計学#4】データの標準化と偏差値
【Rで統計学#3】確率分布
【紹介動画】データサイエンス研究所ではどんなことをしているのか?
【Rで統計学#2】2次元データの記述統計
【Rの統計学#1】1次元データの記述統計
【R言語の基礎#5】データの結合(join系とbind系)
【R言語の基礎#4】データの可視化(ggplot)
【R言語の基礎#3】データの整理(dplyr)
【対談3】データサイエンスを学ぶ上で知っておきたい知識
【R言語の基礎#2】データの作成と保存
【R言語の基礎#1】RとRstudioの基本
【データサイエンスで使う統計学#16】相関係数の検定と独立性の検定
【データサイエンスで使う統計学#15】分散分析
【データサイエンスで使う統計学#14】母平均の差の検定
【データサイエンスで使う統計学#13】統計的仮説検定
【データサイエンスで使う統計学#12】区間推定
【対談#2】データサイエンスを知ったきっかけ?
【データサイエンスで使う統計学#11】点推定(不偏推定量と最尤推定法)
【データサイエンスで使う統計学#10】推測統計学の概要
【データサイエンスで使う統計学#9】いろいろ確率分布
【データサイエンスで使う統計学#8】データの標準化と偏差値
【データサイエンスで使う統計学#7】2変数の確率変数の性質
【データサイエンスで使う統計学#6】確率変数の期待値と分散
【データサイエンスで使う統計学#5】確率変数と確率分布
【統計学#4】確率の基礎
【統計学#3】2次元データの記述統計
【統計学#2】データの種類と1次元データの記述統計
【データサイエンスで使う統計学#1】統計学の概要
【微積分と最適化数学#16】いろいろな積分と統計学
【微積分と最適化数学#15】積分と統計学
【微積分と最適化数学#14】ラグランジュの未定乗数法とKKT条件
【微積分と最適化数学#13】ニュートン・ラフソン法
【微積分と最適化数学#12】勾配降下法
【微積分と最適化数学#11】偏微分と勾配
【微積分と最適化数学#10】テイラー展開とマクローリン展開
【微積分と最適化数学#9】関数の増減と極大・極小
【微積分と最適化数学#8】積と商と合成関数の微分
【微積分と最適化数学#7】指数関数・対数関数の微分
【微積分と最適化数学#6】ネイピア数とその性質
【微積分と最適化数学#5】指数関数・対数関数の微分
【微積分と最適化数学#4】多項式とその微分
【微積分と最適化数学#3】極限と連続と微分
【微積分と最適化数学#2】いろいろな関数
【微積分と最適化数学#1】概要
【データサイエンスで使う線形代数#12】主成分分析
【データサイエンスで使う線形代数#11】単回帰分析と重回帰分析
【データサイエンスで使う線形代数】二次形式と単位固有ベクトル
【データサイエンスで使う線形代数#9】一次形式と二次形式
【データサイエンスに使う線形代数#8】直交行列と対称行列
【データサイエンスで使う線形代数#7】固有値と固有ベクトル
【データサイエンスで使う線形代数#6】一次変換
【対談1】「なぜYouTubeを始めようと思ったのか?」
【データサイエンスで使う線形代数#5】連立方程式の解と行基本変形
【データサイエンスで使う線形代数#4】行列と連立方程式
【データサイエンスで使う線形代数#3】データと行列の基礎
【データサイエンスで使う線形代数#2】データとベクトルの基礎
【データサイエンスで使う線形代数#1】データサイエンスに使う線形代数概要
【ベイズ機械学習#16】変分オートエンコーダ(VAE)
【ベイズ機械学習#15】ベイズニューラルネットワーク
【ベイズ機械学習#14】多項ロジスティック回帰
【ベイズ機械学習#13】テンソル分解
【ベイズ機械学習#12】トピックモデル(LDA)
【ベイズ機械学習#11】隠れマルコフモデル(HMM)
【ベイズ機械学習#10】非負値行列因子分解(NMF)
【ベイズ機械学習#9】線形次元削減
【ベイズ機械学習#8】混合ガウスモデルと変分推論
【ベイズ機械学習#7】混合ガウスモデルとギブスサンプリング
【ベイズ機械学習#6】EMアルゴリズムと変分下界と変分推論
【ベイズ機械学習#5】混合ガウスモデルとEMアルゴリズム(多次元)
【ベイズ機械学習#4】エントロピーとKLダイバージェンス
【ベイズ機械学習#3】近似推論
【ベイズ機械学習#2】線形回帰
【ベイズ機械学習#1】ベイズ機械学習の概要
【ベイズ統計学#17】多次元ガウス分布のベイズ推定(μ,Λ)
【ベイズ統計学#16】多次元ガウス分布のベイズ推定(Λ)
【ベイズ統計学#15】多次元ガウス分布のベイズ推定(μ)
【ベイズ統計モデリング#20】動的一般化線形モデル(ポアソン分布)
【ベイズ統計モデリング#19】動的一般化線形モデル(ベルヌーイ分布)
【ベイズ統計モデリング#18】周期性のモデル化
【ベイズ統計モデリング#17】ローカル線形トレンドモデル
【ベイズ統計モデリング#16】時変係数モデル
【ベイズ統計モデリング#15】ローカルレベルモデル
【ベイズ統計モデリング#14】状態空間モデル
【ベイズ統計モデリング#13】ランダム係数モデル
【ベイズ統計モデリング#12】ランダム切片モデル2
【ベイズ統計モデリング#11】ランダム切片モデル
【ベイズ統計モデリング#10】一般線形混合モデル(GLMM)の概要
【ベイズ統計モデリング#9】ロジスティック回帰モデル
【ベイズ統計モデリング#8】ポアソン回帰
【ベイズ統計モデリング#7】重回帰モデル
【ベイズ統計モデリング#6】分散分析モデル
【ベイズ統計モデリング#5】単回帰モデル
【ベイズ統計モデリング#4】一般化線形モデル(GLM)の概要
【ベイズ統計モデリング#3】MCMCサンプルの扱いについて
【ベイズ統計モデリング#2】MCMC法
【ベイズ統計モデリング#1】概要
【ニューラルネットワーク#12】畳み込みニューラルネットワーク(CNN)チャンネルありver
【ニューラルネットワーク#11】畳み込み(CNN)ニューラルネットワーク
【ニューラルネットワーク#10】過学習と正則化
【ニューラルネットワーク#9】モデルの表現力と勾配消失
【ニューラルネットワーク#8】最適化手法の種類
【ニューラルネットワーク#7】ミニバッチ学習と確率的勾配降下法
【ニューラルネットワーク#6】誤差逆伝播法
【ニューラルネットワーク#5】勾配法
【ニューラルネットワーク#4】多値分類
【ニューラルネットワーク#3】2値分類
【ニューラルネットワーク#2】ニューラルネットワーク(回帰)
【ニューラルネットワーク#1】ニューラルネットワークの概要
【機械学習#10】混合ガウスモデルとEMアルゴリズム
【機械学習#9】階層型クラスタリング
【機械学習#8】k-means法
【機械学習#7】主成分分析
【機械学習#6】k最近傍法
【機械学習#5】サポートベクタマシン
【機械学習#4】ロジスティック回帰
【機械学習#3】単回帰分析
【機械学習#2】機械学習モデル概要
【機械学習#1】AI・機械学習の概要
【ベイズ統計学#14】ガウス分布のベイズ推定(μ,λ)
【ベイズ統計学#13】ガウス分布のベイズ推定(λ)
【ベイズ統計学#12】ガウス分布のベイズ推定(μ)
【ベイズ統計学#11】ポアソン分布のベイズ推定
【ベイズ統計学#10】カテゴリ分布のベイズ推定
【ベイズ統計学#9】ベルヌーイ分布のベイズ推定
【ベイズ統計学#8】予測分布について
【ベイズ統計学#7】グラフィカルモデルとベイズの定理
【ベイズ統計学#6】共役事前分布と無情報事前分布
【ベイズ統計学#5】ベイズ推定と事前分布の設定について
【ベイズ統計学#4】ベイズ推定とMAP推定と最尤推定法
【ベイズ統計学#3】ベイズ推定について
【ベイズ統計学#2】ベイズ統計学と推測統計学は何が違うの?
【ベイズ統計学#1】ベイズ統計学の歴史と基本的な考え方
【統計学#12】検定について
【統計学#11】最尤推定法
【統計学#10】推定について
【統計学#9】正規分布について
【統計学#8】二項分布について
【統計学#7】ベルヌーイ分布について
【統計学#6】離散一様分布と連続一様分布
【統計学#5】データの標準化
【統計学#4】確率変数の期待値と分散
【統計学#3】確率変数と確率分布の極意
【統計学#2】データを正しく読むための記述統計学
【統計学#1】今話題の統計学について