| |
|
【項目欄】
|
【内容欄】
|
|
1.
|
・本講義の進め方と注意事項(齊藤 公明:理工,山田 宗男:情報工) ・準備学習(エクセル活用法)(山田 宗男:情報工) 【序論1】 データ駆動型社会とデータサイエンス(杉浦 伸:都市情報)
|
・講義の目的と到達目標,受講方法等を理解する.
データ駆動型社会,データエンジニアリングなどの視点からデータサイエンス社会の全体像を学ぶ.
キーワード:データ駆動型社会,Socciety5.0,ICTの進展
|
|
2.
|
【序論2】 AI の歴史と応用分野(山田 宗男:情報工) (1) AIの概要と基本概念 (2) 古典的なAIアプローチ (3) 機械学習とディープラーニング (4) AIの応用分野 (5) AIの倫理と社会的な課題
|
AI の基本概念とその起源について学習する.AIの定義や目標,推論や学習の概念について学び,AI の歴史的なマイルストーンや代表的なアイデアについて紹介すると共に,古典的なアプローチから機械学習やディープラーニングの台頭までの流れも取り上げる.さらに,AIの応用分野に関して,自然言語処理,画像認識,ChatGPTなど,実際の応用事例を通じて、AI の実践的な活用方法を理解する.
キーワード:データ駆動型社会,AIの歴史,AIの適用/応用,ChatGPT
|
|
3.
|
【データサイエンス基礎1】 数学基礎1(冨田 耕史:理工) (1) 平面と空間のべクトル (2) 行列と行列の演算 (3) ベクトルの内積
|
ベクトルと行列は自然や技術の理解に欠かせない理論であり,社会の仕組みを調べるための重要な手法である.特に,これから学ぶ数学基礎1〜5およびデータサイエンス基礎6は機械学習やディープラーニングなど AI で利用する数学の柱となる.ここでは,平面と空間のベクトルの基礎からはじめ,行列とその演算方法およびベクトルの内積について解説する. 学習の際は,ベクトルについては,ベクトルのもつ意味を理解し,演算・成分・内積について基本概念を理解することを目標とし,行列については,その概念と基本的な演算のしくみについて理解することに留意するとよい.
キーワード:平面ベクトル,空間ベクトル,行列,成分,スカラー倍
|
|
4.
|
【データサイエンス基礎2】 数学基礎2(冨田 耕史:理工) (1) 行列の基本変形 (2) 行列を使った連立方程式の解法 (3) 1次変換
|
ベクトルと行列の応用として連立1次方程式と1次変換について解説する.連立方程式は複数の未知数を求めるための方程式である.解法の基本はたくさんの未知数に関するもとの連立方程式の方程式たちから,より未知数の数が少ない方程式たちに帰着する消去法である.この操作は行列の基本変形とよばれる操作を使って実現する「はき出し法」に対応する.この手順を数学的に整理し,具体的に計算できるようにする.また,平面や空間内の図形の回転移動も行列を使って表すことができる.このことを数学的に説明しているのが1次変換とよばれる概念である.
キーワード:連立1次方程式,行列の基本変形,はき出し法,回転の行列,1次変換
|
|
5.
|
【データサイエンス基礎3】 数学基礎3(三町 祐子:理工) (1) 初等関数 (2) 極限と微分の定義と考え方 (3) 関数の最大と最小
|
機械学習で扱う最適化理論に不可欠な微分法について学習する.高校数学で学習した初等関数(多項式関数,三角関数,指数関数,対数関数)の諸性質を振り返った後,極限および微分係数を定義し,初等関数を用いて,いくつかの例にあたる.その後,グラフの接線や凹凸,および,関数の極値,最大値・最小値を求める方法を学ぶ.与えられた初等関数のグラフの概形を描くことができるようにする.
キーワード:関数,極限,微分,極値,最大・最小
|
|
6.
|
【データサイエンス基礎4】 数学基礎4(三町 祐子:理工) (1) 積分の定義と考え方 (2) 面積・体積の求め方 (3) 微積分の応用
|
微分の逆演算である積分について学習する.不定積分と定積分について学んだ後,面積や体積を求める方法を示す.これは次回以降,確率計算を行う際に必須となる計算方法であるからしっかり習得してほしい.最後に微積分のまとめとして,簡単な微分方程式の解法を解説する.現象を記述する微分方程式は,自然科学・社会科学において非常に有用であり,データサイエンスモデルの構築に大いに役立つと考える.
キーワード:積分,面積,体積,微分方程式
|
|
7.
|
【データサイエンス基礎5】 数学基礎5(齊藤 公明:理工) (1) 事象の捉え方と確率の計算(集合,順列・組合せ) (2) 確率の定義と性質,条件付確率と独立性 (3) ベイズの定理とその応用
|
確率の初歩について解説する.確率及び統計の概念は、データサイエンスにおいてランダムなデータの扱い,時系列解析,ベイジアンネットワークなど揺らぎを伴う様々な場面で基盤となる重要な考え方である.本授業では,順列,組合せから始め,集合の概念,確率の定義及び性質,条件付確率とベイズの定理,独立性などを理解し習得できるようにする.
キーワード:集合と事象, 順列・組合せと確率計算,確率の定義,条件付確率と独立性,ベイズの定理等
|
|
8.
|
【データサイエンス基礎6】 データの分析設計・観察(齊藤 公明:理工) (1) データ分析の進め方(仮説検証サイクル,分析目的の設定,データの収集,加工,統合など) (2) 基本的なデータ可視化手法(度数分布とヒストグラム, 箱ひげ図,散布図,ヒートマップ,分割表など) (3) 基本的なデータ分析手法(代表値,分散と標準偏差,確率変数,確率分布,仮説検定など)
|
データを統計的に分析する際には、必ず課題を設定し解決したい目的を決める.また,その目的を達成するためには実際の分析をどのように行うか分析設計のスキルが重要になる.このとき,統計に関する知識・経験に加え,その土台となる数学の知識が求められる.本授業ではデータ分析・設計,データの観察について概略を述べた後,統計の初歩について解説する.確率分布,確率変数,確率変数の平均・分散などの定義と性質,仮説検定の概念を理解し習得できるようにする.
キーワード:データの分析目的, 統計的分析および設計, 観察,確率変数,確率分布,仮説検定 等
|
|
9.
|
【データサイエンス基礎7】 データ分析手法1(鳥居 弘志:経営) (1) 単回帰分析と重回帰分析 (2) モデル選択 (3) ロジスティック回帰分析
|
「データサイエンス・AI 入門」の内容をベースにして,回帰分析の発展的トピックス(ダミー変数,回帰係数の検定,モデル選択など)について学習する.また,勝ち・負け,合格・不合格など2つの結果が起こる確率を複数の要因から説明するロジスティック回帰分析の考え方と回帰係数の求め方,活用例について学習する.
キーワード:ダミー変数,回帰係数の p 値,自由度修正済み決定係数,AIC,ロジスティック関数
|
|
10.
|
【データサイエンス基礎8】 データ分析手法2(鳥居 弘志:経営) (1) 時系列データとは (2) 時系列データの変動分解 (3) 季節調整
|
ある現象の時間的変化を記録したデータが時系列であり,自然科学,社会科学,工学など幅広い分野で観測され利用されている.時系列データの分析は,その背後にあるメカニズムやモデルを見出そうとするものである.また,求められた時系列モデルは将来の状態を予測するためにも用いられる。ここでは,時系列データを周期性,トレンド,不規則ノイズに分解する方法について学習する.
キーワード:時系列グラフ,変化率,周期性,トレンド,不規則変動,移動平均
|
|
11.
|
【データサイエンス基礎9】 データ分析手法3(鳥居 弘志:経営) (1) アソシエーション分析とは (2) マーケットバスケット分析 (3) マーケティング分野への活用
|
データマイニング手法の一種であるアソシエーション分析について学習する.POS レジや EC サイトなどでの購買履歴データから利用者の購買行動における関連性をどのようにして発見するかを説明する.また,マーケティング分野などでの活用法について紹介する.
キーワード:購買行動パターン,支持度,確信度,リフト値,Apriori アルゴリズム
|
|
12.
|
【データサイエンス基礎10】 データ分析手法4(鳥居 弘志:経営) (1) クラスター分析とセグメンテーション (2) 階層的クラスター分析 (3) 非階層的クラスター分析(k-means法)
|
対象に対して観測された様々な属性データに基づいて,対象を性質の類似したもの同士を集めたグループに分割するクラスター分析について学習する.クラスター分析には階層的クラスター分析と非階層的クラスター分析があり,それぞれの特徴と使い分けについて解説する.また,クラスター分析の活用例について紹介する.
キーワード:デンドログラム,k-means 法,セグメンテーション,グルーピング
|
|
13.
|
【データサイエンス基礎11】 アルゴリズム・データ構造論1: 計算の原理とアルゴリズムの表現(山本 修身:情報工) (1) 計算のモデル(メモリーとプログラム) (2) R を用いた簡単な計算の例 (3) 流れとしてのプログラム(フローチャート) (4) 情報隠蔽,抽象化としての関数 (5) 繰り返し構造と再帰呼出し
|
計算を実行する機械のモデルはいくつかあるが,この講義では我々が普段利用している現実の計算機に最も近いモデルであるランダムアクセスマシン(RAM)を紹介する.RAM のしくみはその上で動くより抽象性の高い多くのプログラミング言語にも反映されている. 本講義では,GOTO 文問題など計算機の泰明期において露呈したいくつかの問題を解説し,それらを克服する形で現在のプログラミング言語が形作られていることを示す.特に本講義ではプログラムの流れの制御の構造化や関数による抽象化を「データサイエンス・AI入門」において学んだ R を用いて説明する.
キーワード:命令形プログラミング言語,構造化プログラミング,構造化定理
|
|
14.
|
【データサイエンス基礎12】 アルゴリズム・データ構造論2: 身近なアルゴリズム1(木探索)(山本修身:情報工) (1) 線形構造と木構造 (2) 木構造で表現できるデータ (3) 深さ優先探索・幅優先探索 (4) 深さ優先探索の再帰呼び出しによる表現 (5) さらに高度な探索アルゴリズム:ヒューリスティックサーチ
|
我々の身近な問題の多くは,ある計算を一つずつ順番に繰り返していくような単純な構造を超えて,より複雑な動作をさせることで解決されることが多い.そのためのデータ構造として最も単純な構造が木構造である.木構造を導入することによって,我々の身近な問題を自然に定式化することができる.本講義では木構造の内部を走査するための基本アルゴリズムである深さ優先探索を中心に解説した後に,より高度で効率的なヒューリスティックサーチについて簡単に解説する.
キーワード:スタック,キュー,順列組み合わせ,数え上げ, A*アルゴリズム,IDA*アルゴリズム
|
|
15.
|
【データサイエンス基礎13】 アルゴリズム・データ構造論3: 身近なアルゴリズム2(ソーティング)(山本 修身:情報工) (1) ソーティングの定義 (2) 簡単なアルゴリズム:バブルソータ (3) 高速ソートアルゴリズムの例:マージソート (4) バブルソートだって速くできる:コムソート (5) 比較ソータの限界 まとめ(山田 宗男:情報工)
|
アルゴリズム研究の歴史のなかで最も古典的な話題の一つがソーティングであり,古くから研究がなされてきた.また,研究の過程において数多くのソートアルゴリズムが発見されてきた.本講義では最も単純なソートアルゴリズムであるバブルソートから始めて前回解説した木探索アルゴリズムの応用とも解釈できるマージソートなどについて解説する.さらに,比較演算によって実行されるソートアルゴリズムの必要計算量の下界について解説する.
キーワード:ソーティング計算量の下界,時間計算量,空間計算量
|
|