syngenta setzte auf die automatisierung von daten, während andere noch von hand abtippen
während die agrarindustrie auf konferenzen über strategien der künstlichen intelligenz diskutiert, hat syngenta eine operative entscheidung getroffen, die mehr aussagt als jede powerpoint-präsentation: das unternehmen beauftragte tetrascience damit, die manuelle dateneingabe in seiner pflanzenschutzsparte zu eliminieren. es handelt sich weder um ein laborpilotprojekt noch um einen budgetlosen proof of concept. es ist eine wette darauf, jahrelange fragmentierte chromatographie- und massenspektrometriedaten in ein zentralisiertes, standardisiertes und algorithmisch verarbeitbares asset zu verwandeln.
die gewählte plattform, tetra os, arbeitet über das, was tetrascience als den tetra scientific data foundry bezeichnet: eine infrastrukturschicht, die rohdaten aus verschiedenen analytischen instrumenten aufnimmt, normalisiert und in einem format ablegt, das ki-systeme direkt verarbeiten können. was früher ein manueller kopierprozess zwischen systemen war, wird zu einem kontinuierlichen datenfluss. das praktische ergebnis ist ein einheitliches „wissenschaftliches gedächtnis", in dem forscher aufhören, nach daten zu suchen, und anfangen, sie zu nutzen.
die unsichtbaren kosten von datensilos in forschung und entwicklung
syngenta kam nicht ohne vorgeschichte zu dieser entscheidung. die jüngere vergangenheit des unternehmens im bereich der wissenschaftlichen digitalisierung zeigt eine bewusste entwicklung. die plattform synapse, die gemeinsam mit datavid entwickelt wurde, hatte bereits 16 millionen dokumente aus 22 verschiedenen quellen indexiert – darunter aufzeichnungen aus der zeit vor 1960 – und lieferte messbare ergebnisse: 30 bis 40 % weniger zeitaufwand für die datensuche durch wissenschaftler und regulierungsteams sowie eine 20- bis 30-prozentige reduzierung des compliance-risikos durch automatisiertes filtern sensibler informationen. die vermeidung doppelter studien führte zu einsparungen in der größenordnung von tausenden von dollar pro projekt.
dieser präzedenzfall definiert die erwartungsgrundlage für tetra os. syngenta weiß bereits, dass die automatisierung des datenzugangs messbare renditen bringt. die frage, die dieser schritt beantwortet, ist nicht, ob automatisierung funktioniert, sondern wie weit sie skaliert werden kann. synapse löste das problem der semantischen suche. tetra os geht das vorgelagerte problem in der kette an: die erzeugung und standardisierung von daten an der quelle, bevor jemand danach suchen muss.
hier liegt die mechanik, auf die in den wenigsten berichten hingewiesen wird: die daten analytischer instrumente wie chromatographen und massenspektrometer werden in proprietären formaten ausgegeben, die je nach hersteller, softwareversion und laboreinstellung variieren. jedes mal, wenn ein wissenschaftler ergebnisse zwischen geräten vergleichen oder daten in ein modellierungswerkzeug übertragen muss, führt irgendwo jemand eine manuelle konvertierung durch. das ist kein supportprozess. es ist ein engpass, der jede f&e-entscheidung verlangsamt. multipliziert mit hunderten von forschern in mehreren ländern sind die kumulierten kosten aus zeitverlust und transkriptionsfehlern struktureller und nicht marginaler natur.
was die einführung der „sciborgs" über die implementierungsstrategie verrät
tetrascience schließt in die vereinbarung die einführung sogenannter tetra sciborgs ein: teams aus ingenieur-wissenschaftlern, die während der implementierung, einführung und kontinuierlichen verbesserung innerhalb der kundenorganisation arbeiten. dieses detail ist nicht kosmetischer natur. es ist das ehrlichste signal dafür, wo solche projekte normalerweise scheitern.
die meisten projekte zur datenautomatisierung in f&e scheitern an der lücke zwischen der installierten plattform und den operativen gewohnheiten des wissenschaftlichen teams. eine neue software verändert nicht, wie ein forscher mit 15 jahren berufserfahrung seine versuche dokumentiert. echte adoption erfordert jemanden, der sowohl den wissenschaftlichen prozess als auch die datenarchitektur versteht und sich ins labor setzen kann, um konkrete arbeitsabläufe neu zu gestalten. tetrascience setzt darauf, dass diese persönliche begleitung teil ihres differenzierten leistungsversprechens ist – und nicht nur ein zusatzservice.
für syngenta hat dies auch auswirkungen darauf, wie der return on investment bewertet werden sollte. es geht nicht nur darum, ob die plattform technisch funktioniert; der eigentliche maßstab ist die geschwindigkeit der tatsächlichen adoption durch die teams. wenn die sciborgs es in den ersten monaten schaffen, die nutzung in den realen arbeitsabläufen der wissenschaftler zu verankern, entsteht eine positive spirale: mehr qualitätsdaten gelangen in die foundry, die nachgelagerten modelle werden nützlicher, entscheidungen werden schneller getroffen. gelingt das nicht, endet syngenta mit einer weiteren gut installierten plattform, die niemand systematisch nutzt.
datenautomatisierung als infrastruktur für das, was kommt
dieser schritt gewinnt noch mehr gewicht, wenn man ihn mit dem breiteren investitionskontext von syngenta verbindet. das unternehmen baut das biostar (biological sciences technology and research center) in jealott's hill, vereinigtes königreich, mit einer investition von 130 millionen us-dollar und kapazitäten für 300 wissenschaftler, mit vollbetrieb geplant für 2028. parallel dazu schloss das unternehmen im märz 2026 eine vereinbarung mit quantumbasel, um quantencomputing für die modellierung molekularer wechselwirkungen in pflanzenschutzmitteln zu erforschen.
keine dieser beiden investitionen erzielt eine rendite, wenn die daten, die sie speisen, weiterhin fragmentiert, inkonsistent oder in proprietären formaten gefangen sind. quantencomputing für die molekulare modellierung benötigt saubere und strukturierte molekulardaten. die 300 wissenschaftler des biostar werden analytische datenmengen erzeugen, die – ohne standardisierungsinfrastruktur – schlicht in neuen silos akkumulieren. tetra os ist in diesem kontext kein projekt zur operativen effizienz. es ist die dateninfrastruktur, auf der syngenta seine fortgeschrittensten kapazitäten in den nächsten drei bis fünf jahren aufbauen will.
für tetrascience hat die gewinnung von syngenta als kunden einen wert, der über den vertrag selbst hinausgeht. die präzisionslandwirtschaft und der pflanzenschutz teilen nahezu identische datenprobleme mit der pharma- und biotechnologieindustrie: heterogene instrumente, proprietäre daten, strenge regulatorische anforderungen und rückverfolgbarkeitsbedarf. syngenta fungiert als referenzfall für diese angrenzenden märkte.
das muster, das sich aus diesem schritt ergibt, ist klar: organisationen, die im hochkomplexen wissenschaftlichen f&e-bereich konkurrieren wollen, werden sich nicht durch bessere laborinstrumente als ihre mitbewerber differenzieren. alle haben zugang zu denselben analytischen technologien. der operative vorteil wird bei denjenigen liegen, die die daten dieser instrumente am schnellsten in entscheidungen umwandeln. nachhaltige innovationsführerschaft baut nicht derjenige auf, der die ambitioniertesten ideen auf dem papier hat, sondern derjenige, der zuerst die reibungsverluste beseitigt, die verhindern, dass die daten von heute die entscheidungen von morgen beeinflussen.













