井出草平の研究ノート

サポートベクターマシンkernlabパッケージのtypeとclass[R]

www.rdocumentation.org

サポートベクターマシンは、分類、新奇性検出、回帰のための優れたツールである。ksvmは、ネイティブのマルチクラス分類の定式化や境界制約SVMの定式化とともに、よく知られたC-svc、ν-svc、(分類)one-class-svc(新奇性)eps-svr、ν-svr(回帰)の定式化をサポートしている。 ksvmは、クラス確率の出力と回帰の信頼区間もサポートする。

type

type パラメータは SVM をどのように適用するかを指定するために使われる。

  1. C-svc (C classification): これは通常の SVM 分類器で、二クラスまたは多クラスの分類問題に使用される。ハイパーパラメータ C を用いて誤分類のトレードオフを調整する。

  2. nu-svc (nu classification): こちらも分類器であり、C の代わりに nu パラメータを使用する。nu は訓練誤差とサポートベクタの割合の上限を表し、パラメータの設定が少し直感的ではないものの、実践的に有用である。

  3. C-bsvc (bound-constraint svm classification): これはバウンド制約付きの SVM で、データ点が正しいクラスに属する確信度を強制することができる。

  4. spoc-svc (Crammer, Singer native multi-class): これは Crammer と Singer によるネイティブの多クラス分類法で、直接多クラス問題に対応することができるため、他の一対一や一対全の方法よりも効率的である。

  5. kbb-svc (Weston, Watkins native multi-class): Weston と Watkins によるもう一つのネイティブ多クラス分類法で、spoc-svc 同様に多クラス問題に直接対応する。

  6. one-svc (novelty detection): これは新規性検出(異常検出)に使用され、データセットの主要な特性から逸脱する新しいデータポイントを特定する。

  7. eps-svr (epsilon regression): ε-SVR は回帰問題に使用され、ε の範囲内での誤差を無視することでモデルを訓練する。

  8. nu-svr (nu regression): この回帰も nu パラメータを使用し、SVR でのサポートベクタの割合と訓練誤差のバランスを取る。

  9. eps-bsvr (bound-constraint svm regression): バウンド制約付きの回帰モデルで、特定の条件下での回帰問題に対する制約を課すことができる。

これらの type の選択は、扱うデータの特性(分類、回帰、異常検出)、問題の要件、および特定の SVM の振る舞いに基づいて行われる。例えば、データがラベル付きでクラス間の明確な境界が必要な場合は C-svcnu-svc が適切であり、データが連続的な値を持つ回帰問題の場合は eps-svrnu-svr を選択される。

kernel

ksvm 関数で使用されるカーネルは、訓練および予測時にデータの内積を特徴空間で計算する機能を持っている。カーネルは、非線形のデータ構造を扱う際に特に有効であり、異なるタイプのカーネルが特定のデータセットや問題に対して適切な変換を提供する。以下は kernlab で提供されている主なカーネル関数である:

  1. rbfdot (Radial Basis kernel "Gaussian"): ガウスカーネルまたはRBFカーネルとも呼ばれる。データ点間のユークリッド距離を基にして類似度を計算する。

  2. polydot (Polynomial kernel): 多項式カーネルはデータポイント間の内積を基にして、それをある固定された次数まで累乗し、データの特徴を高次元へ射影する。

  3. vanilladot (Linear kernel): 線形カーネルは、入力された特徴の線形組み合わせのみを考慮する最も単純なカーネルである。

  4. tanhdot (Hyperbolic tangent kernel): 双曲線正接関数を用いるカーネルで、ニューラルネットワークの活性化関数と類似の性質を持つ。

  5. laplacedot (Laplacian kernel): ラプラスカーネルガウスカーネルに似ているが、急激な変化をより強く反映する。

  6. besseldot (Bessel kernel): ベッセル関数に基づくカーネルで、波動の伝播などの問題に適用可能である。

  7. anovadot (ANOVA RBF kernel): ANOVA RBF カーネルは、異なる特徴間の交互作用をモデル化することに特化しており、特に複数の特徴があるデータセットに適している。

  8. splinedot (Spline kernel): スプライン関数を基にしたカーネルで、データに滑らかな曲線をフィットさせるのに適している。

  9. stringdot (String kernel): 文字列やテキストデータに基づくカーネルで、シーケンスデータの類似度を計算する際に用いられる。

これらのカーネルは、データの特性や分析の目的に応じて選択される。たとえば、非線形の関係をモデル化する必要がある場合は RBF カーネルが適しているが、データが既に十分な特徴を持っている場合は線形カーネルが効果的である。また、テキストの類似度を評価する必要がある場合には、stringdot カーネルが使用される。

kpar: kernel parameters

ksvm 関数のカーネル関数で使用されるハイパーパラメータは、カーネルに応じて異なるパラメータを設定することができる。これらのパラメータはカーネル関数の挙動を調整し、モデルの精度や汎化能力に影響を与える。以下は、kernlab パッケージでサポートされている各カーネル関数のための有効なパラメータについての説明である:

  1. rbfdot および laplacedot (Radial Basis および Laplacian kernel):

    • sigma: カーネル幅の逆数であり、この値が小さいほどカーネルの幅が広がり、データ点が互いに影響を及ぼす距離が長くなる。
  2. polydot (Polynomial kernel):

    • degree: 多項式の次数であり、カーネルの複雑さを決定する。
    • scale: 各データポイントの内積を計算する前に乗算されるスケーリングファクター。
    • offset: 多項式カーネル計算における定数項。この値を増やすことで、より高い次元へのマッピングが強化される。
  3. tanhdot (Hyperbolic tangent kernel):

    • scale: 内積の結果に乗算される値。
    • offset: 内積の結果に加算される値。この値を調整することで、カーネル非線形性が変化する。
  4. besseldot (Bessel kernel):

    • sigma: カーネル関数の広がりを決定するパラメータ。
    • order: ベッセル関数の次数。
    • degree: データを高次元にマッピングする際の次数。
  5. anovadot (ANOVA RBF kernel):

  6. stringdot (String kernel):

    • length: 考慮される文字列の長さ。
    • lambda: カーネル計算における減衰因子。この値が大きいほど、遠くの文字間の影響が減少する。
    • normalized: カーネル評価が正規化されるかどうかを決定する論理パラメータ。正規化を行うと、異なる長さの文字列間での比較が公平になる。

これらのハイパーパラメータは、データの特性やモデリングの目的に応じて適切に調整される必要がある。適切なパラメータの設定は、モデルの学習効果と予測精度に直接的な影響を与えるため、実験を通じて最適な値を見つけることが重要である。

ides.hatenablog.com

サポートベクターマシンでの分類[R]

どこにでもあるようなコードだが、走らせてみたのでメモっておこう。

サポートベクターマシンでirisデータを分類し主成分分析で次元削減をした2次元プロットをする

data("iris")
str(iris)
'data.frame':    150 obs. of  5 variables:
 $ Sepal.Length: num  5.1 4.9 4.7 4.6 5 5.4 4.6 5 4.4 4.9 ...
 $ Sepal.Width : num  3.5 3 3.2 3.1 3.6 3.9 3.4 3.4 2.9 3.1 ...
 $ Petal.Length: num  1.4 1.4 1.3 1.5 1.4 1.7 1.4 1.5 1.4 1.5 ...
 $ Petal.Width : num  0.2 0.2 0.2 0.2 0.2 0.4 0.3 0.2 0.2 0.1 ...
 $ Species     : Factor w/ 3 levels "setosa","versicolor",..: 1 1 1 1 1 1 1 1 1 1 ...
# データセット
df <- iris

# 訓練データとテストデータに分割
set.seed(100)
df.rows <- nrow(df) # 150
train.rate <- 0.7 # 訓練データの比率
train.index <- sample(df.rows, df.rows * train.rate)
df.train <- df[train.index,] # 訓練データ
df.test <- df[-train.index,] # テストデータ
cat("train=", nrow(df.train), " test=", nrow(df.test))

train= 105 test= 45 訓練データと測定データはおよそ7:3の比率で分割されたことが確認される。

SVMモデルの訓練を行ったうえで、テストデータでの予測を行い予測結果の検証をする。

library(kernlab)
# SVMモデルの訓練
svm <- ksvm(Species ~ Sepal.Length + Sepal.Width + Petal.Length + Petal.Width, data = df.train)

# テストデータでの予測
pred = predict(svm, df.test)

# 予測結果の検証
table(pred, df.test$Species) # 予測結果と実際のラベルの比較
sum(pred == df.test$Species) / length(pred) # 正解率
pred         setosa versicolor virginica
  setosa         14          0         0
  versicolor      0         14         0
  virginica       0          2        15
[1] 0.9555556

正解率は95.6%と非常に良い結果になっている。

もともと、4つの変数を使っているため、2次元でプロットするには4次元を2次元に次元削減する必要がある。 とりあえず、主成分分析を使って次元削減を行う。

# 主成分分析(PCA)
pca <- prcomp(df[, 1:4], scale. = TRUE) # PCAの実行
pca_df <- data.frame(pca$x[, 1:2]) # 主成分スコア
pca_df$Species <- df$Species # 種別ラベルの追加

ggplot2でプロットをする。

PCA結果のプロット

library(ggplot2)
ggplot(pca_df, aes(x = PC1, y = PC2, color = Species)) +
  geom_point(alpha = 0.8, size = 3) +
  labs(title = "PCA of Iris Dataset", x = "Principal Component 1", y = "Principal Component 2") +
  theme_minimal()

サポートベクターマシンでirisデータを分類しt-SNEで次元削減をした2次元プロットをする

主成分分析よりt-SNEの方がよいので、t-SNEを使って次元削減をする。気を付けないといけないのは、重複データがあると計算ができないことである。コードはほぼ同じなので、結果の検証まで一気に書く。

data("iris")
df <- iris

# 重複データの削除
df_unique <- unique(df)

# 訓練データとテストデータに分割
set.seed(100)
df.rows <- nrow(df_unique) # 重複削除後の行数
train.rate <- 0.7 # 訓練データの比率
train.index <- sample(df.rows, df.rows * train.rate)
df.train <- df_unique[train.index,] # 訓練データ
df.test <- df_unique[-train.index,] # テストデータ
cat("train=", nrow(df.train), " test=", nrow(df.test))

# SVMモデルの訓練
svm <- ksvm(Species ~ Sepal.Length + Sepal.Width + Petal.Length + Petal.Width, data = df.train)

# テストデータでの予測
pred <- predict(svm, df.test)

# 予測結果の検証
table(pred, df.test$Species) # 予測結果と実際のラベルの比較
sum(pred == df.test$Species) / length(pred) # 正解率

t-SNEの実行とデータフレームへの変換

# t-SNEの実行
tsne_results <- Rtsne(df_unique[, 1:4], dims = 2, perplexity = 30, verbose = TRUE, max_iter = 500)

# t-SNE結果をデータフレームに変換
tsne_df <- data.frame(tsne_results$Y)
colnames(tsne_df) <- c("Dim1", "Dim2")
tsne_df$Species <- df_unique$Species
# t-SNE結果のプロット
ggplot(tsne_df, aes(x = Dim1, y = Dim2, color = Species)) +
  geom_point(alpha = 0.8, size = 3) +
  labs(title = "t-SNE of Iris Dataset", x = "Dimension 1", y = "Dimension 2") +
  theme_minimal()

参考:

ides.hatenablog.com

robustbaseパッケージでロバスト推定を行う[R]

robustbaseパッケージではMM推定、S推定、Koller & Stahel (2017)、Koller (2012)による補正設定を用いたMM推定が可能である。

www.rdocumentation.org

MM推定

MM推定はYohai(1987)によって提案された方法である。MM推定はM推定で得られた残差標準偏差を最小化するS推定を用いて回帰パラメータを推定した上で、M推定を行うものである。MM推定の目的は、ブレークダウン値が高く、より効率的な推定値を得ることである。

  • Yohai, V.J. (1987) High breakdown-point and high efficiency estimates for regression. The Annals of Statistics 15, 642–65.
library(robustbase)
mod.robustbase.MM <- lmrob(wage ~ gender + age + education, 
                        method="MM", data = CPS1985)
summary(mod.robustbase.MM)
Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -4.20343    1.38053  -3.045  0.00244 ** 
genderfemale -2.22148    0.34372  -6.463 2.33e-10 ***
age           0.11623    0.01634   7.114 3.68e-12 ***
education     0.72453    0.09022   8.030 6.32e-15 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Robust residual standard error: 3.439 
Multiple R-squared:  0.294, Adjusted R-squared:   0.29 

S推定

S推定は、RousseeuwとYohai(1984)によって提案された方法。M推定の残差標準偏差(residual scale)を元にして計算する。M推定の弱点は、重み付け値として中央値のみを使用するため、データ分布が考慮されておらず、データ全体の関数ではないことである。S推定は、中央値の弱点を克服するために残差標準偏差を用いる。

      1. Rousseeuw and V. J. Yohai, Robust Regression by Mean of SEstimators, Robust and Nonlinear Time Series Analysis, New York, 1984, 256-274, doi: 10.1007/978-1-4615-7821-5-15.
library(robustbase)
mod.robustbase.S <- lmrob(wage ~ gender + age + education, 
                        method="S", data = CPS1985)
summary(mod.robustbase.S)

結果

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -4.20547    1.43947  -2.922  0.00363 ** 
genderfemale -1.72424    0.43121  -3.999 7.28e-05 ***
age           0.12670    0.01895   6.688 5.77e-11 ***
education     0.62001    0.08981   6.903 1.46e-11 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Robust residual standard error: 3.439 
Multiple R-squared:  0.5189,    Adjusted R-squared:  0.5162 
set.seed(33)
x1 <- sort(rnorm(30)); x2 <- sort(rnorm(30)); x3 <- sort(rnorm(30))
X. <- cbind(x1, x2, x3)
y <-  10 + X. %*% (10*(2:4)) + rnorm(30)/10
y[1] <- 500   # a moderate outlier
X.[2,1] <- 20 # an X outlier
X1  <- cbind(1, X.)

Koller & Stahel (2017)、Koller (2012)による補正設定を用いたMM設定

library(robustbase)
mod.robustbase.KS2014 <- lmrob(wage ~ gender + age + education, 
                        method="MM", data = CPS1985, setting = "KS2014")
summary(mod.robustbase.KS2014)
Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -4.18167    1.04744  -3.992 7.47e-05 ***
genderfemale -2.25123    0.32137  -7.005 7.52e-12 ***
age           0.11518    0.01389   8.291 9.33e-16 ***
education     0.72988    0.06323  11.543  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Robust residual standard error: 3.462 
Multiple R-squared:   0.29, Adjusted R-squared:  0.2859 
Convergence in 17 IRWLS iterations

コードにsetting = "KS2014"を入れる。
KS2014はKoller & Stahel (2017), Koller (2012)によって提案された設定である。

具体的には、KS2014設定では、サンプル再抽出の数(nResample)が1000に増やされ、最良の候補数(best.r.s)を20に設定し、ローカル改善ステップ数(k.fast.s)を2に設定する。これらの変更は、特にファクター変数を含む設計でより安定した推定を行うために設計されている。
また、この設定では、MM推定器(M-estimator with high breakdown point)のために使用される、標準化関数(\psi function)とチューニング定数(tuning.psi、tuning.chi)も特定の値に設定されています。これにより、標準誤差のロバスト性を高めつつ、データの異常値に対しても強い耐性を持たせることができる。 この設定を利用することで、ロバスト回帰モデルのパフォーマンスを向上させ、異常値やモデルの仮定違反が結果に与える影響を小さく抑えることが可能となる。データ分析において一般的な仮定違反に対処する際に非常に有用とされている。

KS2014の元になったKS2011の論文はこちら。 - Koller, M., & Stahel, W. A. (2017). Nonsingular subsampling for regression S estimators with categorical predictors. Computational Statistics, 32(2), 631–646. https://doi.org/10.1007/s00180-016-0679-x

KS2014はarXivにあるままである。
- Koller, M. (2012). Nonsingular subsampling for S-estimators with categorical predictors. https://doi.org/10.48550/ARXIV.1208.5595

モデル比較

残差標準誤差の比較

各モデルの比較の一つの方法は各モデルの残差標準誤差を計算することである。残差標準誤差(residual standard error: RSE)は、回帰モデルの残差の標準偏差を測定する方法であり、RSE の値が低いほど、モデルがデータに適合的である。

https://www.rdocumentation.org/packages/robustbase/versions/0.99-2/topics/sigma

## 通常のOLS
sigma.lm <- sigma(mod) 
sigma.lm

## MM推定
sigma.MM <- sigma(mod.robustbase.MM) 
sigma.MM 

## S推定
sigma.S <- sigma(mod.robustbase.S)
sigma.S

## KS2014設定
sigma.KS2014 <- sigma(mod.robustbase.KS2014) 
sigma.KS2014 

結果:

## 通常のOLS
4.454083

## MM推定
3.439039

## S推定
3.439039

## KS2014設定
3.461537

R二乗

各モデルの出力にある。

Multiple R-squared:  0.253,  Adjusted R-squared:  0.2488 
Multiple R-squared:  0.294, Adjusted R-squared:   0.29 
Multiple R-squared:  0.294, Adjusted R-squared:   0.29 
Multiple R-squared:   0.29, Adjusted R-squared:  0.2859 

参考:

ides.hatenablog.com

ides.hatenablog.com

MASSパッケージでロバスト推定のM推定、MM推定、P値を計算する[R]

以前に書いたロバスト推定の方法。こちらにP値の出し方を書いていなかったので、補足。

ides.hatenablog.com

通常の重回帰分析

mod <- lm(wage ~ gender + age + education, data = CPS1985)
summary(mod)

結果:

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -4.84275    1.24425  -3.892 0.000112 ***
genderfemale -2.33542    0.38807  -6.018 3.30e-09 ***
age           0.11310    0.01669   6.775 3.32e-11 ***
education     0.82744    0.07462  11.089  < 2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.454 on 530 degrees of freedom
Multiple R-squared:  0.253, Adjusted R-squared:  0.2488 
F-statistic: 59.85 on 3 and 530 DF,  p-value: < 2.2e-16

M推定

Huber(1981)によって提唱された方法。

      1. Huber (1981) Robust Statistics. Wiley.
library(AER)
data("CPS1985")

library(MASS)
mod.robust <- rlm(wage ~ gender + age + education, data = CPS1985)
summary(mod.robust)
Coefficients:
             Value   Std. Error t value
(Intercept)  -4.6060  1.0236    -4.4999
genderfemale -2.3399  0.3192    -7.3297
age           0.1171  0.0137     8.5281
education     0.7701  0.0614    12.5448

Residual standard error: 3.543 on 530 degrees of freedom

このようにt値までしか出力してくれない。

t 値から p-value を計算する

これは t 分布の累積分布関数であるpt() 関数を使用する方法がある。

# モデルの要約を取得
summary_mod <- summary(mod.robust)

# 自由度の計算
df <- nrow(CPS1985) - length(coef(mod.robust))

# 各係数の t 値から p-value を計算
p_values <- 2 * pt(-abs(summary_mod$coefficients[, "t value"]), df)

# p-value をsummary_modに追加
summary_mod$coefficients <- cbind(summary_mod$coefficients, "p value" = p_values)

# 結果を表示
print(summary_mod$coefficients)

結果。

                  Value Std. Error   t value      p value
(Intercept)  -4.6060026 1.02357607 -4.499912 8.361872e-06
genderfemale -2.3399281 0.31923960 -7.329693 8.668241e-13
age           0.1171214 0.01373363  8.528072 1.563109e-16
education     0.7700551 0.06138443 12.544797 8.596133e-32

MM推定

ちなみにMASSパッケージのrlm関数ではM推定とのほかにMM推定が実行できる。デフォルトはM推定。

mod.robust02 <- rlm(wage ~ gender + age + education, 
                  data = CPS1985, method = "MM")
summary(mod.robust02)

MM推定の結果は下記のようになる

Coefficients:
             Value   Std. Error t value
(Intercept)  -4.2019  1.0418    -4.0332
genderfemale -2.2212  0.3249    -6.8358
age           0.1162  0.0140     8.3141
education     0.7244  0.0625    11.5947

Residual standard error: 3.438 on 530 degrees of freedom

参考:

www.rdocumentation.org

ides.hatenablog.com

抗精神病薬が認知症患者の健康リスクを高めるという研究結果

www.news-medical.net

認知症管理における抗精神病薬の役割

認知症と診断された患者は、機能障害と進行性の認知機能低下を経験する。認知症の一般的な心理的・行動的症状には、不安、抑うつ、無気力、攻撃性、せん妄、いらいら、精神病などがある。

認知症心理的および行動的症状を管理するために、患者は一般的に抗精神病薬で治療される。英国国立医療技術評価機構(National Institute for Health and Care Excellence)は現在、抗精神病薬の使用を非薬物療法認知症の行動・心理症状の緩和に効果がない場合にのみ推奨している。しかし、最近のコロナウイルス感染症2019(COVID-19)のパンデミックの際には抗精神病薬の使用が増加しており、その原因は封鎖措置と医薬品以外の治療法が利用できなかったことにあるとされている。

英国では、リスペリドンとハロペリドール認知症の行動・心理症状の治療薬として承認されている唯一の抗精神病薬である。2003年、米国食品医薬品局(FDA)は、認知症高齢者に対するリスペリドンの使用に伴う脳卒中、一過性脳虚血発作、死亡率などのリスクを強調した。

複数の研究報告に基づき、英国、米国、欧州では、認知症の行動・心理症状の治療に対する抗精神病薬の不適切な処方を減らすための規制ガイドラインが策定されている。現在までのところ、認知症高齢者の抗精神病薬処方と心筋梗塞静脈血栓塞栓症心室不整脈、急性腎障害など複数の疾患のリスクとの関連性を示すエビデンスはほとんど得られていない。

本研究について

本研究では、成人の認知症患者を対象とした大規模コホートにおいて、抗精神病薬投与に関連した有害転帰のリスクを検討した。本研究で検討された有害転帰は、静脈血栓塞栓症脳卒中心不全心室不整脈、骨折、心筋梗塞、肺炎、急性腎障害などである。

英国人口の98%以上が国民保健サービス(NHS)のプライマリケア一般診療所に登録されている。すべての関連データは、2,000以上の一般診療所に関連するClinical Practice Research Datalink(CPRD)の電子カルテから収集された。CPRDはAurumデータベースとGOLDデータベースから構成されており、これらは英国人口を広く代表するものと考えられる。

50歳以上で認知症と診断された人を対象とした。重要なことは、診断の1年前に抗精神病薬による治療を受けていた研究参加者はいなかったことである。

研究者らはマッチドコホートデザインを利用し、最初の認知症診断後に抗精神病薬を使用した各患者を発生密度サンプリング法でマッチさせた。この方法では、同じ日に認知症と診断されたが抗精神病薬を処方されていない患者を無作為に15人まで抽出した。

抗精神病薬認知症患者の副作用リスクを増加させる 2つのコホート全体の参加者の平均年齢は82.1歳であった。研究期間中に抗精神病薬が処方された参加者は35,339人であった。

認知症と診断されてから抗精神病薬が処方されるまでの平均日数は、Aurum群で693.8日、GOLD群で576.6日であった。最も多く処方された抗精神病薬はリスペリドン、ハロペリドール、オランザピン、クエチアピンであった。

今回の集団ベースの研究から、抗精神病薬を処方されている成人の認知症患者は、非使用者に比べて静脈血栓塞栓症心筋梗塞脳卒中心不全、肺炎、骨折、急性腎障害のリスクが高いことが明らかになった。この観察は、両データベースから選択された173,910人の認知症成人の解析に基づいている。

有害転帰のリスク増加は、抗精神病薬の現在および最近の使用者に最も多くみられた。抗精神病薬使用90日後では、静脈血栓塞栓症、肺炎、急性腎障害、脳卒中のリスクが非使用者より高かった。しかし、抗精神病薬心室不整脈虫垂炎、胆嚢炎のリスクには影響を及ぼさなかった。

リスペリドンの使用と比較すると、ハロペリドールは肺炎、骨折、急性腎障害のリスク上昇と有意に関連していた。ハロペリドールの副作用はクエチアピンより高かったが、骨折、心不全心筋梗塞のリスクについてはリスペリドンとクエチアピンの間に有意差は認められなかった。肺炎、脳卒中、急性腎障害、静脈血栓塞栓症のリスクは、リスペリドンと比較してクエチアピンの方が低かった。

結論

本研究は、抗精神病薬認知症高齢者にどのような影響を与えるかを明らかにした。これらの薬剤の使用は、脳卒中、急性腎障害、肺炎、静脈血栓塞栓症心不全心筋梗塞などの多くの重篤な有害転帰と関連していた。

今後、高齢者の認知症治療における抗精神病薬の使用について規制上の決定を下す際には、脳血管障害や死亡率とともにこれらのリスクを考慮しなければならない。

  • Mok, L. H. P., Carr, M. J., Guthrie, B., et al. (2024) Multiple adverse outcomes associated with antipsychotic use in people with dementia: population based matched cohort study. BMJ. doi:10.1136/bmj.2023.076268

「白い錠剤で意識失い」「撮影直前まで暴行」元人気女優が告白「若い私を待ち受けていた“悪しき芸能界”」

smart-flash.jp

 恐ろしかったのは、1990年代前半にVシネマで大人気だった俳優Yさんです。いつも睡眠薬を飲んでいるそうで、ある撮影所でお会いした際『よく眠れてる? 眠れないならおすすめの薬があるよ』と声をかけられました。一度断わったのに、その後、私の泊まっているホテルの部屋にまで突然やってきて『これ飲みなよ』と、Yさんから白い錠剤を渡されたんです。断わりきれずに缶チューハイとともに飲むと、意識を失いました。気がつけば、ベッドの上でYさんが馬乗りになっていて……。

ハルシオンサイレースかな。

ブルデュー『ディスタンクシオン』輪読会第80夜 覚書

旧版P314から。

要約

政治空間について、クラスの異なる集団が相対的にどのように分布しているかを仮設的に図式化し、体系化する段階に至っている。この政治空間はクラスやクラスの分断が資本の量と構造によってどのように分配されるかの系統的な歪みとして現れる。政治空間での「左側」に位置する集団は下方へ、右側に位置する集団は上方へ引かれる傾向にある。これは資本の全体的な量と資本構造の対立が重なる効果によるものである。クラスの分断や「ブランド」に割り当てられた位置は、該当する人口や顧客層がどの程度広がっているかを示す中心点に過ぎない。実際にその「社会的表面」は指名された人口の量や社会的分散に大きく依存し、顧客層の増加は限られた空間への更なる浸透やカバーする空間の拡大のどちらによっても生じる可能性がある。

移動の雇用効果

要約

政治的選択が社会クラスによって大きく左右され、それが単に同時的に定義される資本の量や構造によるものではないことを明らかにするためには、適切なカテゴリを構築する必要がある。特に、各社会的地位の時間的特性や、特定のクラスまたはクラスの分断が政治的ブランドや製品をどのように理解し意味付けるかを記述し理解する手段を用いることが重要である。しかし、フランスで利用可能な調査データは、職業や親の政治的意見を通じての軌跡や教育の影響を把握し隔離することができないのが残念である。さらに、名目上同一の意見が実際には比較できないほど異なる、または互換性がない理由を明らかにするための手段も提供していない。選挙の論理が芸術家、教授、教師、職員、労働者、鉱夫の共産党投票の違いを無視するからといって、科学も同じように無視するべきではない。科学的な説明を導き出すためには、名目上の投票の一致の下に隠された共産党への異なる投票の意味を明らかにし、共産主義者としての実際に異なる態度や言明を発見する必要がある。これは、選挙の論理が意図や期待において異なる意見を同一として扱う政治的に重要な事実を考慮に入れつつ行うべきである。

本質的な社会的位置の違いを理解するためには、資本の量や構造だけでなく、その属性の時間的進化、すなわちグループ全体の社会的軌跡や個人とその家系の軌跡を考慮する必要がある。これは、客観的に占められた位置の主観的表現の根源である。政治的選択の決定的な特徴は、他のどの選択よりも、特に慣習の深く不透明な選択よりも、社会的世界や自らが占める位置、また「占めるべき」位置についてのより明示的かつ体系的な表象に介入する点にある。政治的言説は、存在する場合、その表象のより抑制され、普遍化された表現に過ぎず、それを持つ者自身にさえ認識されないことが多い。実際に占められた位置と政治的立場の間には位置の表象が介在し、これは位置によって決定されるが(完全に、つまり時間的にも定義される場合)、外部の観察者が推測する立場とは異なることがある(これを「誤った意識」と呼ぶこともある)。個人や集団の軌跡の傾向が、社会的位置の認識やその位置に対する魅力あるいは幻滅的な関係を介して、位置と政治的立場の間の関係を確立する主な仲介者である。個々の人々や集団が未来、新しさ、動き、革新、進歩に向けてどれだけ傾いているか、そして一般に社会的・政治的楽観主義に傾いているか、それとも過去に向かって社会的不満や保守主義に走るかは、彼らの集団的軌跡、過去と潜在的なものによって、すなわち先祖の属性をどの程度再現できたか、そしてその属性を子孫に再現できる(または再現できると感じる)度合いに依存している。

ハビトゥスの深い選択

ハビトゥスに関連する選択が「他のどの選択よりも、特に慣習の深く不透明な選択よりも」と表現されている。これは、ハビトゥス(慣習や無意識の傾向といった社会的に獲得された行動様式)が個人の選択に深く影響を及ぼし、しばしばその意識的な認識を超えた形で行動や意思決定に影響を与えることを指している。つまり、政治的選択は、ハビトゥスのような深く、しばしば意識されない社会的条件や影響よりも、より明示的かつ体系的な社会的世界の表象に基づいて行われると説明されている。

集団軌道:la trajectoire individuelle et surtout collective

ブルデューの用語で、他の学者の援用や引用ではないらしい。

要約

階級または階級の一部が衰退し、過去に向かっている場合、その条件と位置のすべての属性を再生産することができなくなり、全体的な資本を再生産し社会的空間での位置(家族の起源の位置や現在の位置)を維持するためには、最も若いメンバーが大きな割合で少なくとも資本の再転換を行い、これが社会的空間での水平的移動を伴う条件の変化となる。言い換えれば、階級の位置の再生産が不可能になる(階級の下降)、または階級の一部の変更によってのみ達成される(再転換)場合である。この場合、社会的代理人の社会的生成モードの変化が異なる世代の出現を決定し、これらの対立は一般に世代間の対立として記述されるものには還元されず、経済的資本または文化的資本の優勢な遺産に関連した価値観と生活様式の間の対立が原因となる。

おそらくこの写真は、薬局・薬剤師。薬剤師はその典型かもしれない。

要約

ある分野の構造的歴史(社会階級の分野であれ、他の任意の分野であれ)は、その分野に関わる行為者の伝記を時代別に分類する。それにより、各行為者の個別の歴史が彼が属するグループの歴史を内包する。したがって、特定の分野の具体的な歴史を知ることに基づいてのみ、単なる任意の年齢クラスとは対照的に、人口の中から世代を区切ることが可能である。実際、その分野に影響を与える構造的変化のみが、世代の異なる生産を決定する力を持ち、世代のモードを変容させ、個々の伝記の組織とこれらの伝記を同じリズムで調整された伝記クラスに集約する役割を果たす。大きな歴史的イベント(革命や政権変更など)は、しばしば文化生産の分野で時代区分の目印として利用されるが、異なる分野を一時的に同期させ、一瞬のうちに各分野の比較的独立した歴史を共通の歴史に混同する効果がある。しかし、これらの出来事はしばしば人工的な区切りを導入し、各分野特有の非連続性の追求を妨げる。

解説

ある分野の構造的歴史とは、その分野に関与する行為者たちの生涯を特定の時期ごとに区分けすることを意味する。このプロセスを通じて、個々の行為者の個人的な歴史は、彼または彼女が属するグループの歴史と結びつけられる。つまり、行為者一人一人の経歴が、そのグループ全体の歴史を反映していると考えられる。
具体的にその分野の歴史を理解していないと、単に年齢で区分けされる「年齢クラス」とは異なり、実際の「世代」として人口を分類することは難しい。世代とは、同じ時期に生まれた人々が共有する経験や価値観に基づいて形成されるもので、これにはその時代の社会的、文化的な変動が大きく影響している。
構造的変化、つまりその分野の基本的な変わり目が、新しい世代を形成する力を持っている。これらの変化は、行為者たちの生き方や世界観を変え、彼らの人生の物語が同じリズムやテンポで進行するように調整される。このような変化を通じて、新しい世代が生まれるわけだ。
また、大きな歴史的イベント(例えば革命や政権の変更など)はしばしば、文化や社会の分野を一時的に同期させるが、これらの出来事は時として人工的な区切りを設け、それぞれの分野に固有の連続性を見逃させることがある。つまり、大きな出来事が一つの大きなストーリーとして語られがちだが、それぞれの分野でどのような影響を与えたかを見極めることが重要である。この視点から、歴史や世代の研究を深めることが、より正確な理解につながる。

要約

支配階級の一部で自己の再生産が保証されているような階層の自由保守主義は、集団の将来が脅威にさらされている階級の反動的な態度と対立する。これらの階級は、過去を基準にしてのみ自らの価値を保持でき、時代遅れの階級構造に基づく価値体系、すなわち価値の決定の論理に依存している。

解説

支配階級の中でも、自分たちの地位が安定しており、簡単に次世代に引き継がれると考えられているグループは、自由保守主義の立場を取ることが多い。これに対して、将来が不安定で脅威にさらされている階級のグループは、反動的な態度を示すことがある。つまり、彼らは自分たちの価値を守るために、過去の価値観や時代遅れの階級構造を基準にして行動し、その昔の論理に依存している。

要約

同様の位置にいる個人でも、社会的出自や社会的軌道によって意見が異なることが確かであるが、社会的位置が明確でなく、その結果としてあらゆる点で大きな分散を余儀なくされている集団の場合には、個々の軌道の効果が特に顕著であるが、これは階級特有の効果の範囲内で発生する。そのため、同じ階級のメンバーの倫理的・政治的態度は、階級全体を特徴づける基本的な態度の変形形として現れる。

また、プチブルの社会的美徳の原理でもある「obsequium」(確立された秩序への深い承認)は、文化財や家庭用品、家具、衣類、レジャー用品など、支配的な生活様式を形成する商品やサービスを販売する際に、支配的な倫理的または美的価値を認めることを意味する場合に特に適している。これは、自己の価値の確信を売り物にする倫理的なスノビズム、模範的な特異性の主張であり、他のすべての生き方や行動を非難する。この態度は、善意が企業の条件であり、良心がその報酬である組み合わせを必要とするため、特に人気がある。これは、庶民階級を最新のブルジョワ社交界の礼儀、流行、道徳に引き入れ、過去の他の時代に他の人々がその放縦と抑えられない過剰を抑制するために投資していたのと同じ憤りを持って彼らの「抑制的」な態度を抑える際に発揮される。

解説 「obsequium」(確立された秩序への深い承認)

プチブルが支配階級によって確立された社会的秩序や価値観を深く承認し、それを積極的に受け入れ、支持する態度を指す。この概念は、プチブルが社会的な地位を向上させようとする過程で、より上の階級の様式や価値観を模倣しようとする傾向を表している。
ブルデューの理論では、各階級は特有の「ハビトゥス」を持ち、それが個人の嗜好、価値観、行動様式を形成する。プチブルハビトゥスは、しばしば上昇志向が強く、社会的に「正しい」とされる行動や消費を通じて自己の地位を向上させようとする特性を持つ。そのため、既存の社会的秩序や価値観を内面化し、それに従うことで、自分たちの社会的位置を安定させようとする。
「obsequium」は、このようなプチブル心理的・文化的動機を端的に示すものであり、確立された秩序への忠誠や、それに基づく行動が社会的な成功や承認へとつながると信じる姿勢を反映している。この態度は、特に社会的地位の向上を望むプチブルに顕著で、彼らが支配階級の価値観や文化的標準を受け入れ、自らの行動や消費の選択を通じてそれを体現しようとする様子が見られる。

解説 倫理的なスノビズム、模範的な特異性

自己の社会的価値や道徳的優越性を他者に誇示し、その優越性を通じて自身の特別さや独自性を際立たせる態度を指す。この行動は、特定の社会階級やグループ内で顕著に見られ、彼らは自分たちの行動や選択が一般的な規範や期待を超えていると考え、それを社会的なステータスの象徴として他者に示そうとする。
例えば、ある人が高価なオーガニック食品を購入し、その消費を通じて環境への配慮や健康への意識の高さをアピールする場合、これは倫理的なスノビズムの一形態となる。その人は、単に健康的な選択をしているだけでなく、その行動によって「倫理的に優れている」という自己のイメージを構築し、他者と区別をつけようとする。このような態度は、自己の価値観を売り物にし、他のライフスタイルや選択を劣ったものとして否定することで、自身の社会的位置を確立しようとする行為である。

東京都多摩市で消耗した例