【ITと数学|YouTube】データサイエンス研究所
【ITと数学|YouTube】データサイエンス研究所
■【ITと数学|YouTube】データサイエンス研究所
/▼/■【RSS】【ITと数学|YouTube】データサイエンス研究所
■【ゼロから丁寧に始めるpython#9】オブジェクトの特徴
■【ゼロから丁寧に始めるpython#8】クラスと属性
■【ゼロから丁寧に始めるpython#7】関数と引数
■【ゼロから丁寧に始めるpython#6】制御フロー
■【ゼロから丁寧に始めるpython#5】複数の値を持つデータ型
■【ゼロから丁寧に始めるpython#4】基本的なデータ型
■【ゼロから丁寧に始めるpython#3】Terminalとpath
■【ゼロから丁寧に始めるpython#2】インストールと環境構築
■【ゼロから丁寧に始めるpython#1】pythonの概要
■【Dockerの基礎#9】Jupiter Lab環境の構築
■【Dockerの基礎#8】LAMP環境の構築
■【Dockerの基礎#7】Docker Compose
■【Dockerの基礎#6】Dockerfile
■【Dockerの基礎#5】Network
■【Dockerの基礎#4】マウントとVolume
■【Dockerの基礎#3】コンテナのライフサイクル
■【Dockerの基礎#2】Dockerの概要
■【Dockerの基礎#1】Dockerと仮想環境
■【ゼロから始めるGitとGithub#9】Githubの基礎知識
■【ゼロから始めるGitとGithub#8】Githubでチーム開発
■【ゼロから始めるGitとGithub#7】README.md
■【ゼロから始めるGitとGithub#6】Githubの基礎
■【ゼロから始めるGitとGithub#5】Gitの開発フロー
■【ゼロから始めるGitとGithub#4】ブランチとマージ
■【ゼロから始めるGitとGithub#3】ファイルの状態とgitignore
■【ゼロから始めるGitとGithub#2】Gitの基礎
■【ゼロから始めるGitとGithub#1】GitとGithubの基礎
■【BootstrapでWebアプリデザイン#7】BootstrapでWebアプリデザイン
■【BootstrapでWebアプリデザイン#6】さまざまなデザイン
■【BootstrapでWebアプリデザイン#5】Formのデザイン
■【BootstrapでWebアプリデザイン#4】ボタンのデザイン
■【BootstrapでWebアプリデザイン#3】表示のデザイン
■【BootstrapでWebアプリデザイン#2】テキストのデザイン
■【BootstrapでWebアプリデザイン#1】Bootstrapの基礎
■【FlaskでWebアプリ作成#11】画像生成アプリ
■【FlaskでWebアプリ作成#10】物体検知アプリ
■【FlaskでWebアプリ作成#9】単回帰分析アプリ
■【FlaskでWebアプリ作成#8】偏差値計算アプリ
■【FlaskでWebアプリ作成#7】簡単なWebアプリ作成
■【FlaskでWebアプリ作成#6】画像とプロットの利用
■【FlaskでWebアプリ作成#5】関数の利用
■【FlaskでWebアプリ作成#4】Formの利用
■【FlaskでWebアプリ作成#3】HTMLとCSS
■【FlaskでWebアプリ作成#2】Flaskの導入
■【FlaskでWebアプリ作成#1】Flaskの概要
■【強化学習⑩】DQN
■【強化学習⑨】SARSA
■【強化学習⑧】Q-learning
■【強化学習⑦】モンテカルロ法(実装)
■【強化学習⑥】モンテカルロ法とTD法(理論)
■【強化学習⑤】価値反復法
■【強化学習④】方策反復法
■【強化学習③】ベルマン方程式と動的計画法
■【強化学習②】環境とエージェント
■【強化学習①】強化学習の概要
■【統計的因果推論⑩】欠損データ処理と因果推論
■【統計的因果推論⑨】機械学習と因果推論
■【統計的因果推論⑧】DIDとCausal Impact
■【統計的因果推論⑦】回帰不連続デザイン(RDD)
■【研究室あるある】すぐホワイトボードを使って説明する奴 #Shorts
■【統計的因果推論⑥】操作変数法とノンコンプライアンス
■【研究室あるある】入りたてと1年後、眠い時の違い #Shorts
■【統計的因果推論⑤】傾向スコア
■【統計的因果推論④】回帰分析の利用
■【統計的因果推論③】反事実モデルと因果効果
■【統計的因果推論②】因果推論で扱う確率の基礎
■【統計的因果推論①】統計的因果推論とは?
■【Rでベイズ統計モデリング#22】DGLM(ポアソン分布)
■【Rでベイズ統計モデリング#21】DGLM(ベルヌーイ分布)
■【Rでベイズ統計モデリング#20】周期性のモデル化
■【Rでベイズ統計モデリング#19】ローカル線形トレンドモデル
■【Rでベイズ統計モデリング#18】時変系数モデル
■【Rでベイズ統計モデリング#17】ローカルレベルモデル
■【Rでベイズ統計モデリング#16】Rで状態空間モデルの概要
■【初心者でも分かるデータサイエンス⑥】学習のロードマップ
■【初心者でも分かるデータサイエンス⑤】データから見るデータサイエンス
■【初心者でも分かるデータサイエンス④】タスクから見るデータサイエンス
■【初心者でも分かるデータサイエンス概論③】データサイエンスのさまざまな分野
■【初心者でも分かるデータサイエンス概論②】データサイエンティストとは??
■【初心者でも分かるデータサイエンス概論①】データサイエンスとは???
■【Rでベイズ統計モデリング♯15】ランダム係数モデル(brms)
■【Rでベイズ統計モデリング♯14】ランダム係数モデル
■【Rでベイズ統計モデリング#13】ランダム切片モデル2(brms)
■【Rでベイズ統計モデリング#12】ランダム切片モデル2
■【Rでベイズ統計モデリング#11】ランダム切片モデル1(brms)
■【Rでベイズ統計モデリング#10】ランダム切片モデル1
■【Rでベイズ統計モデリング#9】RでGLMMの概要
■【Rでベイズ統計モデリング#8】ロジスティック回帰(brms)
■【Rでベイズ統計モデリング#7】ロジスティック回帰モデル
■【Rでベイズ統計モデリング#6】ポアソン回帰モデル(brms)
■【Rでベイズ統計モデリング#5】ポアソン回帰モデル
■【Rでベイズ統計モデリング#4】正規線形モデル(brms)
■【Rでベイズ統計モデリング#3】正規線形モデル
■【Rでベイズ統計モデリング#2】RでGLMの概要
■【Rでベイズ統計モデリング#1】Stanのインストールと基礎
■【Rでベイズ統計学#10】多次元ガウス分布のベイズ推定(μ,Λ)
■【Rでベイズ統計学#9】多次元ガウス分布のベイズ推定(Λ)
■【Rでベイズ統計学#8】多次元ガウス分布のベイズ推定(μ)
■【Rでベイズ統計学#7】ガウス分布のベイズ推定(μ,λ)
■【Rでベイズ統計学#6】ガウス分布のベイズ推定(λ)
■【Rでベイズ統計学#5】ガウス分布のベイズ推定(μ)
■【Rでベイズ統計学#4】ポアソン分布のベイズ推定
■【Rでベイズ統計学#3】カテゴリ分布のベイズ推定
■【Rでベイズ統計#2】ベルヌーイ分布のベイズ推定
■【Rでベイズ統計学#1】Rでベイズ統計学概要
■【pytorchで深層生成モデル#13】学習テクニックのまとめ(DCGAN)
■【pytorchで深層生成モデル#12】画像データセットの作成(DCGAN)
■【pytorchで深層生成モデル#11】画像データの保存(DCGAN)
■【pytorchで深層生成モデル#10】モデルの保存(DCGAN)
■【pytorchで深層生成モデル#9】モデルの確認(DCGAN)
■【pytorchで深層生成モデル#8】pytorchでCGAN
■【pytorchで深層生成モデル#7】pytorchでDCGAN
■【pytorchで深層生成モデル#6】pytorchでGAN
■【pytorchで深層生成モデル#5】pytorchでVAE
■【pytorchで深層生成モデル#4】pytorchでAE
■【pytorchで深層生成モデル#3】Google colaboratoryの概要と制限
■【pytorchで深層生成モデル#2】GPUの種類と性能
■【pytorchで深層生成モデル#1】概要
■【深層生成モデル#7】CGAN
■【深層生成モデル#6】DCGAN
■【深層生成モデル#5】敵対的生成ネットワーク(GAN)
■【深層生成モデル#4】変分オートエンコーダ(VAE)
■【深層生成モデル#3】オートエンコーダ(AE)
■【深層生成モデル#2】概要(理論編)
■【深層生成モデル#1】概要
■【pytorchでニューラルネットワーク#11】GPUの利用方法(CNN)
■【pytorchでニューラルネットワーク#10】CNN
■【pytorchでニューラルネットワーク#9】正則化
■【pytorchでニューラルネットワーク#8】クラス
■【pytorchでニューラルネットワーク#7】ニューラルネットワーク(Sequential)
■【pytorchでニューラルネットワーク#6】DatasetとDateLoaderの扱い
■【pytorchでニューラルネットワーク#5】単回帰分析(pytorch)
■【pytorchでニューラルネットワーク#4】パラメータ更新(optimizer)
■【pytorchでニューラルネットワーク#3】自動微分(backward)
■【pytorchでニューラルネットワーク#2】テンソルの基礎
■【pytorchでニューラルネットワーク#1】概要
■【PythonでCNN#9】CNN
■【PythonでCNN#8】Pooling層
■【PythonでCNN#7】Convolutional層(逆伝播)
■【PythonでCNN#6】col2im関数
■【PythonでCNN#5】Convolutional層(順伝播)
■【PythonでCNN#4】im2col関数(チャンネル数とバッチサイズ)
■【PythonでCNN#3】im2col関数(paddingとstride)
■【PythonでCNN#2】im2col関数
■【PythonでCNN#1】PythonでCNN概要
■【Pythonでニューラルネットワーク#12】ニューラルネットワーク(batchNormalization)
■【Pythonでニューラルネットワーク#11】ニューラルネットワーク(Dropout)
■【Pythonでニューラルネットワーク#10】ニューラルネットワーク(多値分類)
■【Pythonでニューラルネットワーク#9】線形変換と活性化関数と損失関数
■【Pythonでニューラルネットワーク#8】単回帰分析(trainデータとtestデータ)
■【Pythonでニューラルネットワーク#7】単回帰分析(クラスの利用)
■【Pythonでニューラルネットワーク#6】単回帰分析(パラメータ更新)
■【Pythonでニューラルネットワーク#5】単回帰分析(誤差逆伝播)
■【Pythonでニューラルネットワーク#4】単回帰分析(ミニバッチ・SGD)
■【Pythonでニューラルネットワーク#3】単回帰分析(勾配降下法)
■【Pythonでニューラルネットワーク#2】単回帰分析
■【Pythonでニューラルネットワーク#1】概要
■【Pythonの基礎#5】クラス
■【Pythonの基礎#4】for文とif文と自作関数
■【Pythonの基礎#3】データの可視化(matplotlib)
■【Pythonの基礎#2】データの扱い(numpy)
■【Pythonの基礎#1】pythonのインストールと基本
■【Rで多変量解析#14】構造方程式モデリング(SEM)
■【Rで多変量解析#13】パス解析
■【Rで多変量解析#12】確認的因子分析
■【Rで多変量解析#11】探索的因子分析
■【Rで多変量解析#10】数量化3類
■【Rで多変量解析#9】数量化2類
■【Rで多変量解析#8】数量化1類
■【Rで多変量解析#7】クラスター分析(k-means法)
■【Rで多変量解析#6】クラスター分析(階層型クラスタリング)
■【Rで多変量解析#5】主成分分析
■【Rで多変量解析#4】マハラノビスの距離
■【Rで多変量解析#3】判別分析(線形判別分析)
■【Rで多変量解析#2】重回帰分析
■【Rで多変量解析#1】単回帰分析
■【多変量解析#15】構造方程式モデリング(SEM)
■【多変量解析#14】パス解析
■【多変量解析#13】確認的因子分析
■【多変量解析#12】探索的因子分析
■【多変量解析#11】数量化3類
■【多変量解析#10】数量化2類
■【多変量解析#9】数量化1類
■【多変量解析#8】クラスター分析(k-means法)
■【多変量解析#7】クラスター分析(階層型クラスタリング)
■【多変量解析#6】主成分分析
■【多変量解析#5】判別分析(マハラノビスの距離)
■【多変量解析#4】判別分析(線形判別分析)
■【多変量解析#3】重回帰分析
■【多変量解析#2】単回帰分析
■【多変量解析#1】多変量解析の概要
■【RStudioで自動レポート作成#9】pdfの利用
■【RStudioで自動レポート作成#8】インタラクティブの使用
■【RStudioで自動レポート作成#7】テンプレートの作成
■【RStudioで自動レポート作成#6】Rコードの利用
■【RStudioで自動レポート作成#5】Tex(テフ)コードの利用
■【対談#5】データサイエンスのややこしさについて
■【RStudioで自動レポート作成#4】CSSコードの利用
■【RStudioで自動レポート作成#3】HTMLコードの利用
■【RStudioで自動レポート作成#2】マークダウン記法
■【RStudioで自動レポート作成#1】RMarkdownの基本
■【Rで統計学#9】相関係数の検定と独立性の検定
■【Rで統計学#8】分散分析
■【Rで統計学#7】母平均の差の検定
■【Rで統計学#6】区間推定
■【対談4】RとPythonどちらを使うべきなのか?
■【Rで統計学#5】点推定
■【Rで統計学#4】データの標準化と偏差値
■【Rで統計学#3】確率分布
■【紹介動画】データサイエンス研究所ではどんなことをしているのか?
■【Rで統計学#2】2次元データの記述統計
■【Rの統計学#1】1次元データの記述統計
■【R言語の基礎#5】データの結合(join系とbind系)
■【R言語の基礎#4】データの可視化(ggplot)
■【R言語の基礎#3】データの整理(dplyr)
■【対談3】データサイエンスを学ぶ上で知っておきたい知識
■【R言語の基礎#2】データの作成と保存
■【R言語の基礎#1】RとRstudioの基本
■【データサイエンスで使う統計学#16】相関係数の検定と独立性の検定
■【データサイエンスで使う統計学#15】分散分析
■【データサイエンスで使う統計学#14】母平均の差の検定
■【データサイエンスで使う統計学#13】統計的仮説検定
■【データサイエンスで使う統計学#12】区間推定
■【対談#2】データサイエンスを知ったきっかけ?
■【データサイエンスで使う統計学#11】点推定(不偏推定量と最尤推定法)
■【データサイエンスで使う統計学#10】推測統計学の概要
■【データサイエンスで使う統計学#9】いろいろ確率分布
■【データサイエンスで使う統計学#8】データの標準化と偏差値
■【データサイエンスで使う統計学#7】2変数の確率変数の性質
■【データサイエンスで使う統計学#6】確率変数の期待値と分散
■【データサイエンスで使う統計学#5】確率変数と確率分布
■【統計学#4】確率の基礎
■【統計学#3】2次元データの記述統計
■【統計学#2】データの種類と1次元データの記述統計
■【データサイエンスで使う統計学#1】統計学の概要
■【微積分と最適化数学#16】いろいろな積分と統計学
■【微積分と最適化数学#15】積分と統計学
■【微積分と最適化数学#14】ラグランジュの未定乗数法とKKT条件
■【微積分と最適化数学#13】ニュートン・ラフソン法
■【微積分と最適化数学#12】勾配降下法
■【微積分と最適化数学#11】偏微分と勾配
■【微積分と最適化数学#10】テイラー展開とマクローリン展開
■【微積分と最適化数学#9】関数の増減と極大・極小
■【微積分と最適化数学#8】積と商と合成関数の微分
■【微積分と最適化数学#7】指数関数・対数関数の微分
■【微積分と最適化数学#6】ネイピア数とその性質
■【微積分と最適化数学#5】指数関数・対数関数の微分
■【微積分と最適化数学#4】多項式とその微分
■【微積分と最適化数学#3】極限と連続と微分
■【微積分と最適化数学#2】いろいろな関数
■【微積分と最適化数学#1】概要
■【データサイエンスで使う線形代数#12】主成分分析
■【データサイエンスで使う線形代数#11】単回帰分析と重回帰分析
■【データサイエンスで使う線形代数】二次形式と単位固有ベクトル
■【データサイエンスで使う線形代数#9】一次形式と二次形式
■【データサイエンスに使う線形代数#8】直交行列と対称行列
■【データサイエンスで使う線形代数#7】固有値と固有ベクトル
■【データサイエンスで使う線形代数#6】一次変換
■【対談1】「なぜYouTubeを始めようと思ったのか?」
■【データサイエンスで使う線形代数#5】連立方程式の解と行基本変形
■【データサイエンスで使う線形代数#4】行列と連立方程式
■【データサイエンスで使う線形代数#3】データと行列の基礎
■【データサイエンスで使う線形代数#2】データとベクトルの基礎
■【データサイエンスで使う線形代数#1】データサイエンスに使う線形代数概要
■【ベイズ機械学習#16】変分オートエンコーダ(VAE)
■【ベイズ機械学習#15】ベイズニューラルネットワーク
■【ベイズ機械学習#14】多項ロジスティック回帰
■【ベイズ機械学習#13】テンソル分解
■【ベイズ機械学習#12】トピックモデル(LDA)
■【ベイズ機械学習#11】隠れマルコフモデル(HMM)
■【ベイズ機械学習#10】非負値行列因子分解(NMF)
■【ベイズ機械学習#9】線形次元削減
■【ベイズ機械学習#8】混合ガウスモデルと変分推論
■【ベイズ機械学習#7】混合ガウスモデルとギブスサンプリング
■【ベイズ機械学習#6】EMアルゴリズムと変分下界と変分推論
■【ベイズ機械学習#5】混合ガウスモデルとEMアルゴリズム(多次元)
■【ベイズ機械学習#4】エントロピーとKLダイバージェンス
■【ベイズ機械学習#3】近似推論
■【ベイズ機械学習#2】線形回帰
■【ベイズ機械学習#1】ベイズ機械学習の概要
■【ベイズ統計学#17】多次元ガウス分布のベイズ推定(μ,Λ)
■【ベイズ統計学#16】多次元ガウス分布のベイズ推定(Λ)
■【ベイズ統計学#15】多次元ガウス分布のベイズ推定(μ)
■【ベイズ統計モデリング#20】動的一般化線形モデル(ポアソン分布)
■【ベイズ統計モデリング#19】動的一般化線形モデル(ベルヌーイ分布)
■【ベイズ統計モデリング#18】周期性のモデル化
■【ベイズ統計モデリング#17】ローカル線形トレンドモデル
■【ベイズ統計モデリング#16】時変係数モデル
■【ベイズ統計モデリング#15】ローカルレベルモデル
■【ベイズ統計モデリング#14】状態空間モデル
■【ベイズ統計モデリング#13】ランダム係数モデル
■【ベイズ統計モデリング#12】ランダム切片モデル2
■【ベイズ統計モデリング#11】ランダム切片モデル
■【ベイズ統計モデリング#10】一般線形混合モデル(GLMM)の概要
■【ベイズ統計モデリング#9】ロジスティック回帰モデル
■【ベイズ統計モデリング#8】ポアソン回帰
■【ベイズ統計モデリング#7】重回帰モデル
■【ベイズ統計モデリング#6】分散分析モデル
■【ベイズ統計モデリング#5】単回帰モデル
■【ベイズ統計モデリング#4】一般化線形モデル(GLM)の概要
■【ベイズ統計モデリング#3】MCMCサンプルの扱いについて
■【ベイズ統計モデリング#2】MCMC法
■【ベイズ統計モデリング#1】概要
■【ニューラルネットワーク#12】畳み込みニューラルネットワーク(CNN)チャンネルありver
■【ニューラルネットワーク#11】畳み込み(CNN)ニューラルネットワーク
■【ニューラルネットワーク#10】過学習と正則化
■【ニューラルネットワーク#9】モデルの表現力と勾配消失
■【ニューラルネットワーク#8】最適化手法の種類
■【ニューラルネットワーク#7】ミニバッチ学習と確率的勾配降下法
■【ニューラルネットワーク#6】誤差逆伝播法
■【ニューラルネットワーク#5】勾配法
■【ニューラルネットワーク#4】多値分類
■【ニューラルネットワーク#3】2値分類
■【ニューラルネットワーク#2】ニューラルネットワーク(回帰)
■【ニューラルネットワーク#1】ニューラルネットワークの概要
■【機械学習#10】混合ガウスモデルとEMアルゴリズム
■【機械学習#9】階層型クラスタリング
■【機械学習#8】k-means法
■【機械学習#7】主成分分析
■【機械学習#6】k最近傍法
■【機械学習#5】サポートベクタマシン
■【機械学習#4】ロジスティック回帰
■【機械学習#3】単回帰分析
■【機械学習#2】機械学習モデル概要
■【機械学習#1】AI・機械学習の概要
■【ベイズ統計学#14】ガウス分布のベイズ推定(μ,λ)
■【ベイズ統計学#13】ガウス分布のベイズ推定(λ)
■【ベイズ統計学#12】ガウス分布のベイズ推定(μ)
■【ベイズ統計学#11】ポアソン分布のベイズ推定
■【ベイズ統計学#10】カテゴリ分布のベイズ推定
■【ベイズ統計学#9】ベルヌーイ分布のベイズ推定
■【ベイズ統計学#8】予測分布について
■【ベイズ統計学#7】グラフィカルモデルとベイズの定理
■【ベイズ統計学#6】共役事前分布と無情報事前分布
■【ベイズ統計学#5】ベイズ推定と事前分布の設定について
■【ベイズ統計学#4】ベイズ推定とMAP推定と最尤推定法
■【ベイズ統計学#3】ベイズ推定について
■【ベイズ統計学#2】ベイズ統計学と推測統計学は何が違うの?
■【ベイズ統計学#1】ベイズ統計学の歴史と基本的な考え方
■【統計学#12】検定について
■【統計学#11】最尤推定法
■【統計学#10】推定について
■【統計学#9】正規分布について
■【統計学#8】二項分布について
■【統計学#7】ベルヌーイ分布について
■【統計学#6】離散一様分布と連続一様分布
■【統計学#5】データの標準化
■【統計学#4】確率変数の期待値と分散
■【統計学#3】確率変数と確率分布の極意
■【統計学#2】データを正しく読むための記述統計学
■【統計学#1】今話題の統計学について