2018-11-07 09:19:44 +0000 2018-11-07 09:19:44 +0000
1
1
Advertisement

Warum werden medizinische Modelle auf den Computern normaler Menschen verteilt?

Advertisement

Es gibt einige verteilte Computerprojekte im Internet, die versuchen, Heilmittel für Krankheiten zu finden, wie World Community Grid . Könnte jemand sagen, warum es solche Dinge gibt und wie nützlich sie sind? Ich meine, ich glaube, dass man, wenn man ernsthaft forscht, in der Lage ist, die Netzwerke der Universitäten oder Supercomputer für die Modellierung zu nutzen. Was ist also die Idee, die Modellierung auf normale Computer zu übertragen? Benötigt die Modellierung in der Medizin so viel Rechenleistung, dass die Computer in den Universitäten nicht über genügend Rechenleistung verfügen?

Advertisement
Advertisement

Antworten (1)

3
3
3
2018-11-07 11:22:05 +0000

Ich weiß nicht, wie gut Supercomputer für Forscher und Universitäten verfügbar sind, aber ich könnte mir vorstellen, dass ein großer Teil der Antwort auf Ihre Frage auf die Kosten zurückzuführen ist.

Supercomputers vs. Distributed-Computing-Projekte

Die Computerleistung wird in FLOPS (Floating Point Operations Per Second) gemessen, und im Juni 2018,&nbsp Summit errang ein von IBM gebauter Supercomputer, der jetzt im Oak Ridge National Laboratory (ORNL) des Department of Energy (DOE) läuft, den ersten Platz für die schnellste Computerleistung bei  122. 3 petaFLOPS auf dem LINPACK Benchmark , wobei peta 1015 ist. Im Vergleich zu den Heim-PCs bietet der schnellstmögliche Heim-PC-Prozessor zu einem Preis von 2.000 Dollar ca. 1 teraFLOPS , wobei tera 1012 ist.

Für verteilte Computerprojekte sehen wir uns Folding@home an.

Das Projekt verwendet die Leerlauf-Verarbeitungsressourcen von Tausenden von Personalcomputern im Besitz von Freiwilligen, die die Software auf ihren Systemen installiert haben. Sein Hauptzweck besteht darin, die Mechanismen der Proteinfaltung zu bestimmen, d.h. den Prozess, durch den Proteine ihre endgültige dreidimensionale Struktur erreichen, und die Ursachen der Proteinfehlfaltung zu untersuchen. Dies ist von bedeutendem akademischen Interesse mit großen Auswirkungen u.a. auf die medizinische Forschung in die Alzheimer-Krankheit, die Huntington-Krankheit und viele Formen von Krebs. In geringerem Maße versucht Folding@home auch die endgültige Struktur eines Proteins vorherzusagen und zu bestimmen, wie andere Moleküle mit ihm interagieren können, was Anwendungen im Arzneimitteldesign hat. Folding@home wird vom Pande Laboratory at Stanford University

[…]

Seit seinem Start am 1. Oktober 1, 2000, hat das Pande Lab 200 wissenschaftliche Forschungsarbeiten als direktes Ergebnis von Folding@home produziert [siehe [https://foldingathome. org/papers-results]]](https://foldingathome.org/papers-results])

Die von Folding@home unter https://stats.foldingathome.org/os zur Verfügung gestellten Statistiken besagen, dass ihr Projekt eine Gesamtleistung von 47.344 Native teraFLOPS oder 98.747 x86 teraFLOPS bietet.

Beachten Sie, dass diese teraFLOPS-Werte von den Software-Kernen stammen, nicht von den Spitzenwerten der CPU/GPU-Spezifikationen, und dass diese Zahlen nur knapp die Leistung von Chinas Sunway TaihuLight im Jahr 2016 übertreffen, das mit 93 petaFLOPS auf der LINPACK-Benchmark jetzt der zweitschnellste Supercomputer ) als das schnellste der Welt eingestuft wurde.

Kosten

IBMs Summit Supercomputer Baukosten von 200 Millionen Dollar und laut Wikipedia kostete der Sunway TaihuLight 273 Millionen Dollar. Wenn man bedenkt, dass die von Folding@home zur Verfügung gestellte Rechenleistung von Freiwilligen erbracht wird (das System ist also kostenlos), ist es kein Wunder, dass die angebotene Rechenleistung nicht abgewiesen werden sollte.

Advertisement

Verwandte Fragen

3
2
1
2
0
Advertisement
Advertisement