AutoDock のスコアファンクションはどれくらい正確か?CASF-2013 ベンチマーク

創薬研究において、低分子医薬品のタンパク質への結合様式の情報は非常に重要です。
共結晶の取得が望ましいですが、結晶化が困難な場合も多いです。

そのような場合に、威力を発揮するのがドッキングシミュレーションです。
様々なドッキングシミュレーション用のソフトウェアが存在しますが、その中でも論文での使用例が圧倒的に多いのが AutoDock です。
無料かつ使い方も簡単というのが大きな要因だと思います。当ウェブサイトでも AutoDock については以前取り上げています。

参考ドッキングシミュレーションのやり方【AutoDock vina】

つい先日、Docking Simulation ソフトのスコアリング関数についてのベンチマークの論文が出ましたので、簡単に紹介したいと思います。

“Evaluation of AutoDock and AutoDock Vina on the CASF-2013 Benchmark”
Thomas Gaillard J. Chem. Inf. Model. 2018, in press. DOI: 10.1021/acs.jcim.8b00312

概要

計算化学によるタンパク質 – リガンド結合予測は、創薬研究において重要なツールです。ドッキングプログラムは、一般にスコアリングファンクション探索アルゴリズムという2つの主要な要素で構成されています。 それらの長所と短所を理解し改善点を見出すことを目的として、立体構造探索とは別に、スコア関数の本来の性能を評価することは大変重要なことです。スコアリングファンクション (CASF) の比較評価を行なうことにより、この目標を達成することが可能です。本論文では、AutoDock および Vina のスコアリングファンクションを CASF-2013 ベンチマークに追加しています。 これらの一般的なフリーソフトウェアドッキングプログラムは、CASF-2013でテストされたすべての方法の上位半分 (AutoDock) と上位 1/4 (Vina) に位置することがわかりました。また、Vina は docking power という点ですべての方法の中で最高です。 また、リガンドの最小化が重要な影響を及ぼし、AutoDock と Vina 間のパフォーマンスの差を小さくすることをも明らかとなりました。

内容

これまでにも 2009 と 2014 年に合わせて 3 報の CASF benchmark の論文が Renxiao Wang らにより出されています (参考文献 1-3) 。

論文中で使われている CASF とは Comparative Assessment of Scoring Functions の略だそうです。CASF は次の 4 つの基準で scoring を評価しています;scoring power, ranking power, docking power, and screening power

scoring power は結合親和性予測 (binding affinity prediction) を、ranking power は 相対ランク予測 (relative ranking prediction)、docking power は結合様式予測 (binding pose prediction)、screening power は discrimination of true binders from random molecules をそれぞれ意味します。

本論文のベンチマークテストの結果、docking power、つまり結合様式予測の観点では Vina がもっとも良い性能を発揮したとのことです。また、AutoDock よりも Vina の方がほぼすべての場合において docking power では優れていたそうです。

また、リガンドの minimization が結果に大きな影響を与えることも示されています。

より詳しい内容については、論文を読んで見てください。

今回のベンチマークで Vina の結果が優れているからといって、Vina がいつも正しい結果を示すとは限りません。また、CASF-2013 に入っていないドッキング予測ソフトも多数存在します。実際、管理人はドッキングするときにCASF-2013 には入っていないソフトを使っています。

今回のベンチマークは、あくまで参考程度にするのが良いと思います。

記事中に間違い等ある場合は、コメント欄、twitter またはメールにてお知らせいただけると幸いです。

参考文献

  1. “Comparative Assessment of Scoring Functions on a Diverse Test Set”
    Cheng, T.; Li, X.; Li, Y.; Liu, Z.; Wang, R. J. Chem. Inf. Model. 2009, 49, 1079-1093.
  2. “Comparative Assessment of Scoring Functions on an Updated Benchmark: 1. Compilation of the Test Set”
    Li, Y.; Liu, Z.; Li, J.; Han, L.; Liu, J.; Zhao, Z.; Wang, R. J. Chem. Inf. Model. 2014, 54, 1700-1716.
  3. “Comparative Assessment of Scoring Functions on an Updated Benchmark: 2. Evaluation Methods and General Results”
    Li, Y.; Han, L.; Liu, Z.; Wang, R. J. Chem. Inf. Model. 2014, 54, 1717-1736.

関連する記事

管理人: