Teil 1: Zielgerichtete Modulation neuronaler Gedächtnismuster: Implikationen für die FMRI-basierte Gedächtniserkennung

Mar 19, 2022


Kontakt: Audrey Huaudrey.hu@wecistanche.com


Bitte klicken Sie hier zu Teil 2

Melina R. Uncapher,1* J. Tyler Boyd-Meredith,1* Tiffany E. Chow,3 Jesse Rissman,3 und X Anthony D. Wagner1,2

1Abteilung für Psychologie und 2Programm für Neurowissenschaften, Stanford University, Stanford, Kalifornien 94305, und 3Abteilung für Psychologie, Universität von Kalifornien, Los Angeles, Los Angeles, Kalifornien 90095

Das Erinnern an ein vergangenes Ereignis ruft verteilte neuronale Muster hervor, die von Mustern unterschieden werden können, die beim Antreffen neuer Informationen hervorgerufen werden. Diese unterschiedlichen Muster können mit relativ hoher diagnostischer Genauigkeit für einzelne Erinnerungen mithilfe der Multi-Voxel-Musteranalyse (MVPA) von fMRI-Daten dekodiert werden. Die hirnbasierte Gedächtniserkennung – wenn gültig und zuverlässig – hätte einen klaren Nutzen über den Bereich der kognitiven Neurowissenschaften hinaus, im Bereich des Rechts, des Marketings und darüber hinaus. Eine wesentliche Randbedingung für die Gültigkeit der Speicherdecodierung kann jedoch der Einsatz von "Gegenmaßnahmen" sein: Strategien, die zum Maskieren von Speichersignalen verwendet werden. Hier haben wir die Anfälligkeit der fMRT-basierten Gedächtniserkennung für Gegenmaßnahmen getestet, wobei wir ein Paradigma verwendet haben, das der Identifizierung von Augenzeugen ähnelt. Die Teilnehmer wurden gescannt, während sie zwei Aufgaben an zuvor untersuchten und neuartigen Gesichtern durchführten: (1) Standarderkennungs-Gedächtnisaufgabe; und (2) eine Aufgabe, bei der sie versuchten, ihren wahren Gedächtniszustand zu verbergen. Univariate Analysen ergaben, dass die Teilnehmer in der Lage waren, neuronale Reaktionen, den Durchschnitt über die Studien hinweg, in Regionen, die mit dem Abrufen von Erinnerungen verbunden sind, einschließlich des Hippocampus und des Winkelgyrus, strategisch zu modulieren. Darüber hinaus unterstützten Regionen, die mit zielgerichteten Aufmerksamkeitsverlagerungen und Gedankenaustausch assoziiert sind, die Verbergung von Erinnerungen, und diejenigen, die mit der Generierung von Erinnerungen assoziiert waren, unterstützten die Verbergung von Neuheiten. Während MVPA eine zuverlässige Klassifizierung von Gedächtniszuständen ermöglichte, wenn die Teilnehmer ihr Gedächtnis wahrheitsgemäß angaben, war die Fähigkeit, das Gedächtnis bei einzelnen Studien zu entschlüsseln, bei Versuchen, das Gedächtnis zu verbergen, beeinträchtigt, sogar umgekehrt. Zusammengenommen zeigen diese Ergebnisse, dass die strategischen Ziele von Tate eingesetzt werden können, um gedächtnisbezogene neuronale Muster zu maskieren und die Speicherdecodierungstechnologie zu vereiteln, wodurch eine erhebliche Randbedingung für ihren Nutzen in der realen Welt gesetzt wird.

Schlüsselwörter: Gegenmaßnahmen; episodischer Abruf; funktionelle MRT; Neurogesetz; Musterklassifizierung

Cistanche-improve memory12

Cistanche kann das Gedächtnis verbessern

Einführung

Immer mehr Beweise deuten darauf hin, dass es möglich ist, das Vorhandensein oder Fehlen einer Erinnerung an einen Stimulus oder ein Ereignis aus verteilten Mustern der menschlichen Gehirnaktivität zu entschlüsseln, gemessen durch funktionelle MRT (fMRI) und Multivoxel-Musteranalyse (MVPA; Johnson et al., 2009; McDuff et al., 2009; Chadwick et al., 2010; Quamme et al., 2010; Rissman et al., 2010; Polyn et al., 2012; Poppenk und Norman, 2012; Rissman und Wagner, 2012). Die schnell aufkommende Literatur zur fMRI-basierten Gedächtnisdekodierung informiert nicht nur neurokognitive Theorien des Gedächtnisses, sondern hat auch Auswirkungen auf Recht, Marketing und darüber hinaus (Meegan, 2008). Beispielsweise könnte eine zuverlässige und validierte Methode zur Erkennung von Erinnerungen die forensischen Fähigkeiten des Strafjustizsystems verbessern, um festzustellen, ob ein Verdächtiger schuldhaftes Wissen über kriminalitätsrelevante Informationen hat (Greely, 2011) oder ob ein Augenzeuge ein kritisches Ereignis erkennt Element. Angesichts der hohen diagnostischen Genauigkeit, die in einigen fMRT-basierten Gedächtnisdekodierungsstudien beobachtet wurde (bis zu 70–90 Prozent; Rissman et al., 2010), mag es verlockend sein, zu dem Schluss zu kommen, dass diese Ansätze einen forensischen Nutzen haben, um die Gedächtniszustände einer Person aufzudecken und vielleicht auch ihre Erfahrungsgeschichte mit Ereignisinformationen.

Allerdings befinden sich fMRT-basierte Gedächtniserkennungstechniken noch in der Entwicklung, wobei noch viele bedeutende Herausforderungen bestehen, bevor ihre Eignung für den Feldeinsatz bestimmt werden kann (Brown und Murphy, 2010; Verschuere et al., 2011). Eine der wichtigsten offenen Fragen ist, ob die Dekodierung des Gedächtnisses anfällig für „Gegenmaßnahmen“ ist: Strategien, die eingesetzt werden, um Mem oder Signale zu maskieren und Erkennungstests zu „schlagen“ (Farah et al., 2014). Rissmann et al. (2010) berichteten über indirekte Beweise, die auf eine Anfälligkeit für strategische Zielzustände hindeuten, da die Fähigkeit, zuvor gesehene Gesichter anhand neuer Gesichter zu erkennen, auf einen nahezu zufälligen Wert reduziert wurde, wenn das Gedächtnis der Teilnehmer implizit und nicht explizit untersucht wurde. Andere Daten deuten jedoch darauf hin, dass mangelnde Aufmerksamkeit für den eigenen mnemonischen Zustand die Gedächtnisklassifizierung nicht immer vereiteln kann. Zum Beispiel Kuhletal. (2013) war in der Lage, Gedächtnisdetails zu entschlüsseln, selbst wenn die Teilnehmer nicht angewiesen wurden, diese Details abzurufen. Zusammengenommen zeigen diese Ergebnisse die Notwendigkeit, Bedingungen zu identifizieren, unter denen strategische Zielzustände neuronale Gedächtnismuster verändern: Können die Teilnehmer insbesondere ihre Gedächtniszustände willentlich durch den Einsatz kooperativ erscheinender Gegenmaßnahmen verbergen? Die Beantwortung dieser Frage hat nicht nur Auswirkungen auf die Abgrenzung der Randbedingungen von fMRT-Methoden zur Erkennung von Gedächtnis, sondern auch auf das Verständnis der Dynamik zielgerichteter Abrufprozesse.

Hier untersuchten wir eine Situation, die der Identifizierung von Augenzeugen ähnelt, und erforderten Gegenmaßnahmen, die bei einem Test zur Identifizierung von Augenzeugen kooperativ erscheinen würden. Die Teilnehmer betrachteten eine Reihe von Gesichtern, und ihr Gedächtnis für diese Gesichter wurde dann auf eine von zwei Arten untersucht, während sie sich einer fMRT unterzogen. Im ersten Test trafen die Teilnehmer explizite Erkennungsentscheidungen über zuvor angetroffene und neuartige Gesichter. Im zweiten Test versuchten die Teilnehmer, ihre Erinnerung an die zuvor begegneten Gesichter zu verbergen und die Erinnerung an die neuen Gesichter vorzutäuschen. Unter Verwendung der expliziten Gedächtnisdaten trainierten wir Klassifikatoren, Aktivitätsmuster zu unterscheiden, die mit den subjektiven Erfahrungen von Anerkennung und Neuheit verbunden sind. Anschließend testeten wir, ob die Klassifikatoren die Gedächtniszustände der Teilnehmer entschlüsseln konnten, wenn sie Gegenmaßnahmen ergriffen.

15_

Materialen und Methoden

Teilnehmer. Vierundzwanzig gesunde, rechtshändige männliche Teilnehmer wurden von der Stanford University und den umliegenden Gemeinden rekrutiert. Die Teilnehmer waren zwischen 18 und 31 Jahre alt, mit einem mittleren SD-Alter von 23 4,29 Jahren, waren englische Muttersprachler ohne Vorgeschichte von neurologischen Komplikationen und waren entsprechend entweder Afroamerikaner (AA; Nr. 8) oder Europäer (EA; Nr. 16). zur Selbstanzeige. Die Teilnehmer gaben gemäß den Verfahren des Institutional Review Board der Stanford University eine schriftliche Einwilligung nach Aufklärung und wurden auf fMRT-Kompatibilität untersucht.

Experiment. Das Experiment umfasste zwei Scan-Sitzungen, die im Abstand von 24 Stunden durchgeführt wurden, und dauerte ungefähr 5 Stunden für beide Scan-Sitzungen. Jeder Teilnehmer wurde mit 2 $0 für jede Stunde Teilnahme entschädigt. Daten von zwei weiteren Teilnehmern wurden gesammelt, aber wegen unzureichender oder unvollständiger Leistung aus den nachfolgenden Analysen weggelassen: einer wurde weggelassen, weil d zufällig war (0,08) und der andere, weil der Teilnehmer sich vom Scannen zurückzog, bevor er das Experiment beendete.

Reize. Gesichtsreize bestanden aus 400 Farbfotografien männlicher Gesichter, von denen die Hälfte AA und die Hälfte EA waren (Daten, die die Auswirkungen der Rasse untersuchen, werden separat berichtet). Gesichtsreize wurden für neutralen Gesichtsausdruck und Hintergrundbeleuchtung standardisiert und umfassten nur Kopf und Hals. Stimuli wurden vor einem grauen Hintergrund mit einem schwarzen Fadenkreuz zur zentralen Fixierung präsentiert. Für jeden Teilnehmer wurden die Gesichtsreize in zwei Stichproben aufgeteilt, wobei geschichtete Zufallsstichproben nach Rasse verwendet wurden, um Reize zuzuweisen, die während der Codierungsphase präsentiert werden sollten (ALTE Elemente; 100AA, 100EA) oder als Folienelemente beim Abrufen dienten (NEUE Elemente; 100AA, 100 EA ).

Tag 1: Kodierung. Die Teilnehmer wurden gescannt, während 200 männliche Gesichter absichtlich kodiert wurden (100 AA-Gesichter und 100 EA-Gesichter). Jedes Gesicht wurde 2 s lang präsentiert, mit einem 8-sekündigen Interstimulus-Intervall (ISI) für insgesamt 10 s pro Versuch. Jedes Gesicht wurde im Verlauf der Codierungsphase zweimal gezeigt: Nachdem der vollständige Satz von 200 Stimuli präsentiert wurde, wurden dieselben Gesichter erneut in einer anderen Reihenfolge präsentiert. Den Teilnehmern wurde eine ausgefeilte Codierungsstrategie gegeben, um sich die Stimuli zu merken, wobei sie angewiesen wurden, fantasievolle Geschichten zu erfinden, die die in den Stimuli abgebildeten Personen beinhalten. Um zu bestätigen, dass die Teilnehmer auf Reize achten und sich an der Aufgabe beteiligen, wurden sie angewiesen, nach dem Erscheinen jedes Gesichts die rechte Zeigefingertaste auf einem Antwortfeld zu drücken. Stimuli wurden über acht Läufe mit 50 Gesichtern pro Lauf präsentiert. Die ersten vier Läufe bestanden aus der ersten Präsentation von Studienstimuli, und die zweiten vier Läufe bestanden aus der zweiten Präsentation von Studienstimuli. Am Ende jedes Laufs (sowohl an Tag 1 als auch an Tag 2) wurden die Teilnehmer ermutigt, eine so lange Pause zu machen, wie sie wollten, und die Pause per Knopfdruck selbst zu beenden. Die Pausen lagen bei allen Teilnehmern zwischen 10 und 55 Sekunden.

Insbesondere bei Gesichtern, von denen angenommen wurde, dass sie zuvor untersucht wurden, wurden die Teilnehmer angewiesen, eine „neue“ Reaktion anzugeben und schnell zu einer kognitiven Strategie zu wechseln, um die neuronalen Korrelate ihrer Erkennung zu verbergen: Sie wurden gebeten, sich auf die technischen und/oder fotografischen Aspekte zu konzentrieren des Stimulus, auf den sie zuvor nicht geachtet hatten, wie Belichtung, Beleuchtung, Linienkanten usw. Hier wurde betont, dass der Computeralgorithmus empfindlich genug war, um Gedächtnissignale aufzunehmen, und dass, nachdem festgestellt wurde, dass es sich um einen untersuchten handelte Gesicht, sollten sie – nach besten Kräften – versuchen, die Erinnerung an das Gesicht davon abzuhalten, in den Sinn zu kommen, indem sie sich auf die Wahrnehmungsaspekte der Fotografien konzentrieren. Umgekehrt wurden die Teilnehmer bei Reizen, die als unerforscht wahrgenommen wurden, angewiesen, eine „alte“ Reaktion anzugeben und kognitive Strategien zu verwenden, um die neuralen Korrelate des Abrufs auszulösen, dh sich an eine bekannte Person zu erinnern, die dem Gesicht ähnelte, und alle damit verbundenen Erinnerungen wiederzuerleben mit dem Individuum. Erneut wurde betont, dass der Computeralgorithmus empfindlich genug sei, um Neuheitssignale zu erkennen, also sollten sie schnell zur Generierung von Erinnerungen für das Gesicht übergehen, das sie als neuartig einstuften. Sowohl für alte als auch für neue Gesichter wurden die Teilnehmer angewiesen, die entsprechende kognitive Strategie für die gesamte Dauer der Studie (10 s) anzuwenden. Die Experimentatoren bestätigten, dass alle Teilnehmer die verborgene Gedächtnisaufgabe verstanden, bevor sie mit dem Experiment fortfuhren.

Cistanche-improve memory20

Univariate fMRI-Analysen. Statistical Parametric Mapping (SPM8; Wellcome Department of Cognitive Neurology, London, UK; http://www.fil.ion.ucl.ac.uk/spm/software/spm8), ausgeführt in MATLAB 7.7 (R2008b; MathWorks), war wird sowohl für die Datenvorverarbeitung als auch für die univariate Analyse verwendet.

Auf die Daten wurden standardmäßige Vorverarbeitungsverfahren angewendet. Alle funktionellen Volumina wurden schnittzeitkorrigiert, um Akquisitionszeitunterschiede zwischen den Schnitten zu berücksichtigen, wobei der zeitlich mittlere Schnitt als Referenz verwendet wurde. Alle funktionellen Volumina wurden bewegungskorrigiert und räumlich neu auf das erste Volumen ausgerichtet, gefolgt von einer Neuausrichtung auf das mittlere Volumen der Sitzung. Das T2--gewichtete anatomische Volumen von Tag 2 (Abruf) wurde mit dem mittleren funktionellen Volumen koregistriert, das T1--gewichtete anatomische Volumen wurde dann mit diesem koregistrierten T2--gewichteten Volumen koregistriert , und dann wurde das T1--gewichtete Volumen in graue Substanz, weiße Substanz und CSF segmentiert, wobei die resultierenden Bilder auf Vorlagen im Raum des Montreal Neurological Institute (MNI) normalisiert wurden. Funktionsvolumina wurden basierend auf den während der Segmentierung erhaltenen Transformationsparametern in den Standardraum normalisiert und in 4 mm 3 Voxel neu abgetastet. Alle Bilder wurden dann mit einem Gaußschen Kern von 8 mm voller Breite bei halbem Maximum (FWHM) räumlich geglättet.

Für alle Klassifizierungsschemata wurden die Versuchszahlen über die Klassen hinweg (mittels zufälliger Unterabtastung) innerhalb der Trainings- und Test-Bins vor der Klassifizierung ausgeglichen, um eine theoretische Nullhypothesen-Klassifizierungsgenauigkeitsrate von 5 0 Prozent und eine Fläche unter der Kurve (AUC; area under the curve) sicherzustellen; siehe unten) von 0,50; Analysen mit gemischten Klassenbezeichnungen bestätigten, dass die zufällige Klassifizierungsleistung um diese Ebenen herum konvergierte ("Nullverteilung"). Nach dem Ausgleichen wurden die Daten von jedem Voxel erneut z-bewertet, so dass das mittlere Aktivitätsniveau jedes Voxels für Klasse-A-Versuche das Inverse seines mittleren Aktivitätsniveaus für Klasse-B-Versuche war. Für jede Analyse wurde der gesamte Klassifizierungsprozess 10 Mal durchgeführt, um stabile Leistungsschätzungen zu erhalten (unabhängige Analysen bestätigten, dass 10 Iterationen ausreichten, um stabile Leistungsschätzungen zu erhalten).

Für alle Klassifizierungsverfahren wurde die regularisierte logistische Regression (RLR) verwendet. Dies wurde zuvor von Rissman et al. als eine vorteilhafte Wahl in diesem Klassifikationsparadigma bestimmt. (2010). Dieser Algorithmus implementierte eine mehrklassige logistische Regressionsfunktion unter Verwendung einer Softmax-Transformation linearer Kombinationen der Merkmale (Bishop, 2006) mit einem zusätzlichen Kammstrafterm als Gaußsche Funktion vor den Merkmalsgewichten. Dieser Strafterm sorgte für eine L2-Regularisierung und erzwang kleine Gewichte. Während des Klassifikatortrainings lernte der RLR-Algorithmus den Satz von Merkmalsgewichtungen, der die Log-Wahrscheinlichkeit der Daten maximierte; Merkmalsgewichte wurden auf Null initialisiert, und die Optimierung wurde mit Carl Rasmussens konjugierter Gradienten-Minimierungsfunktion (http://www.gatsby.ucl.ac.uk/Edward/code/minimize/) unter Verwendung des Gradienten der Log-Likelihood kombiniert mit implementiert die L2-Strafe.

Die L2-Penalty wurde auf die Hälfte des additiven Inversen eines benutzerdefinierten Parameters gesetzt, multipliziert mit dem Quadrat der L2-Norm des Gewichtungsvektors für jede Klasse, addiert über die Klassen. Wir entschieden uns, diesen freien Parameter für alle in dieser Studie berichteten Analysen auf einen festen Wert von 10 zu setzen.

Bewerten der Klassifikatorleistung. Nach dem Anpassen der RLR-Modellparameter unter Verwendung der Trainingssatzdaten wurde jedes Gehirnaktivitätsmuster (d. h. Versuch) aus dem Testsatz in das Modell eingegeben und ergab eine Schätzung der Wahrscheinlichkeit, dass dieses Beispiel aus Klasse A oder Klasse B stammt (konstruktionsbedingt diese zwei Werte summieren sich immer zu eins). Diese Wahrscheinlichkeitswerte wurden über alle Faltungen der Kreuzvalidierungstests hinweg verkettet und dann in eine Rangfolge gebracht. Die True-Positive-Rate (Trefferrate) und die Falsch-Positiv-Rate (FA) des Klassifikators wurden bei 80 festen Cutoff-Schwellenwerten entlang des Wahrscheinlichkeitskontinuums berechnet, um Receiver-Operating-Characteristic-(ROC)-Kurven zu erzeugen. Die diesen Kurven zugeordneten AUC-Werte wurden wie von Fawcett (2004) beschrieben berechnet und können formal als die Wahrscheinlichkeit interpretiert werden, dass ein zufällig ausgewähltes Mitglied einer Klasse eine geringere geschätzte Wahrscheinlichkeit hat, zur anderen Klasse zu gehören als hat ein zufällig ausgewähltes Mitglied der anderen Klasse. Anders ausgedrückt, die AUC indiziert die mittlere Genauigkeit, mit der ein zufällig ausgewähltes Paar von Klasse-A- und Klasse-B-Studien ihrer richtigen Klasse zugeordnet werden könnte (0,5 ist eine zufällige Leistung; 1,0 ist eine perfekte Leistung). Wenn man eine hohe Spezifität bei der Kennzeichnung von Beispielen der Klasse A anstrebt und nicht bereit ist, viele falsch positive Ergebnisse zu tolerieren, kann man die sichersten Vermutungen des Klassifikators hinterfragen. Hier haben wir diesen Schwellenwert willkürlich auf die oberen 10 Prozent der Klassifikationsschätzungen festgelegt. Beachten Sie, dass wir die Genauigkeit und nicht die AUC-Werte angeben, wenn wir die zuverlässigsten Studien der Klassifikatoren melden.

Bedeutungskarten. Für jedes Klassifizierungsschema wurden Wichtigkeitskarten nach dem in früheren MVPA-Studien beschriebenen Verfahren erstellt (Johnson et al., 20{{10}}9; McDuff et al., 2{{16 }}09). Der Wichtigkeitswert eines Voxels liefert einen Index dafür, wie stark seine Signalzunahmen oder -abnahmen die Vorhersagen des Klassifikators beeinflussen. Nach dem Training ergibt das Klassifizierungsverfahren der logistischen Regression einen Satz von Gewichtungswerten, die den Vorhersagewert jedes Voxels widerspiegeln (wobei positive Werte angeben, dass Aktivitätssteigerungen im Allgemeinen mit einem Klasse-A-Ergebnis assoziiert sind, und negative Werte, die anzeigen, dass Aktivitätssteigerungen im Allgemeinen mit einem Klasse-Boutcome assoziiert sind). Diese Gewichte wurden dann mit dem mittleren Aktivitätsniveau jedes Voxels für Klasse-A-Versuche multipliziert (was aufgrund unseres Versuchsausgleichs- und Z-Bewertungsverfahrens das additive Inverse seines mittleren Aktivitätsniveaus für Klasse-B-Versuche ist). Voxeln mit positiven Werten sowohl für Aktivität als auch Gewicht wurden positive Wichtigkeitswerte zugewiesen, Voxeln mit negativer Aktivität und Gewicht wurden negative Wichtigkeitswerte zugewiesen, und Voxeln, für die Aktivität und Gewicht entgegengesetzte Vorzeichen hatten, wurden Wichtigkeitswerte von Null zugewiesen (Johnson et al., 2009; McDuff et al., 2009). Übersichtskarten auf Gruppenebene wurden erstellt, indem die Wichtigkeitskarten der einzelnen Teilnehmer gemittelt wurden und in den Zahlen bei willkürlichen Schwellenwerten angezeigt werden: 3D-gerenderte Karten zwischen 0,02 und 0,5 und 2D-gerenderte Karten zwischen 0,05 und 0,5 (siehe Abb. 4) oder zwischen 0,15 und 0,5 (siehe Fig. 7). Als abschließende Anmerkung: Obwohl Wichtigkeitskarten ein nützliches Werkzeug sind, um auszuwerten, welche Voxel vom Klassifikator verwendet wurden, sollten diese Karten nicht so interpretiert werden, dass sie eine erschöpfende Bewertung darüber liefern, welche Voxel individuell informativ über die Unterscheidung von Interesse sind.

Scheinwerferanalysen. Wichtigkeitskarten zeigen, welche Voxel den Ganzhirn-Klassifikatoren diagnostische Informationen liefern. Sie zeigen jedoch nicht, ob Daten aus einzelnen anatomischen Regionen allein verwendet werden können, um Treffer von CRs zu unterscheiden. Wir führten Scheinwerferanalysen durch, um lokale Dekodierungsgenauigkeiten (Kriegeskorte et al., 2006) im gesamten Gehirn bereitzustellen. Von besonderem Interesse war, ob die Regionen, in denen das vom mittleren Blutsauerstoffgehalt abhängige (BOLD; univariate) Signal signifikant durch Gegenmaßnahmen moduliert wurde (siehe Fig. 2A), auch eine Trial-by-Trial-Decodierungsgenauigkeit ermöglichten, die signifikant vom Zufall abwich. Wir führten die kritische Klassifizierung (explizit ¡ verdeckte Treffer vs. CRs) an lokalen sphärischen Masken durch, die einzeln auf jedem Voxel in der Ganzhirnmaske zentriert waren (mit Ausnahme von Voxeln im motorischen Kortex und Kleinhirn). Jede sphärische Maske enthielt irgendein Voxel, das den Rand des mittleren Voxels berührte; somit enthielten die resultierenden Sphären 19 Voxel, außer wenn sich die Sphäre über die Ganzhirnmaske hinaus erstreckte. Um festzustellen, ob sich im Laufe der Studie lokale Decodierungsgenauigkeiten entwickelten (wie zu erwarten wäre, wenn die Teilnehmer zunächst auf Gedächtnissignale achteten und dann versuchten, solche Signale zu verbergen), führten wir diese Suchscheinwerfer separat für jeden der sechs TRs durch.

Wir haben die Signifikanz in jeder unserer Scheinwerferkugeln wie in den vorherigen Dekodierungsanalysen bewertet: AUCs wurden zuerst für 1 0 Klassifikationsiterationen berechnet, und dann wurde eine Nullverteilung simuliert, indem 10 zusätzliche Klassifikationsiterationen unter Verwendung von verschlüsselten Regressoren berechnet wurden. Wir haben t-Karten auf Gruppenebene generiert, die Kugeln zeigen, die Treffer zuverlässig von CRs unterscheiden, indem wir einen gepaarten t-Test des mittleren verschlüsselten gegenüber dem unverschlüsselten AUC-Wert jedes Teilnehmers bei jedem Voxel über alle 10 Iterationen hinweg durchgeführt haben. Diese Karten wurden bei p 0,05 (korrigiert) durch Anwenden einer Clustergrößenschwelle, die aus Monte-Carlo-Simulationen (Xiong et al., 1995) abgeleitet wurde, wie sie im AFNI-(Automated Functional Neuro-Imaging)-Programm 3dClustSim implementiert sind, als Schwellenwert festgelegt. Die Sanftheit des Monte

Die Carlo-Simulation wurde separat für jeden Teilnehmer und jeden Zeitpunkt unter Verwendung des AFNI-Programms 3dFWHMx aus den durchschnittlichen AUCs geschätzt, die über die Iterationen der verschlüsselten Klassifikation erreicht wurden. Die Glätte wurde über Teilnehmer und Zeitpunkte gemittelt, um einen einzigen Glättewert für jede Dimension zu berechnen. Ein voxelweiser Höhenschwellenwert von p 0.01 führte zu einer Clustergröße von 22 Voxeln, um eine Signifikanz auf Clusterebene von p {{10}} zu erreichen.{{15} }5 (FWE) innerhalb eines bestimmten Zeitpunkts. Um mehrfache Vergleiche über unsere sechs Zeitpunkte hinweg zu korrigieren, wendeten wir eine Bonferronini-Korrektur an und berechneten den Ausdehnungsschwellenwert, der erforderlich ist, um eine Signifikanz auf Clusterebene von p 0.0083 (oder 0,05/6; FWE) bei zu erreichen zu jedem Zeitpunkt oder p 0,05 (FWE) über Raum und Zeit. Unter Verwendung dieser Methode stellten wir fest, dass eine Clusterausdehnung von 29 Voxeln erforderlich war, um eine Signifikanz auf Clusterebene von p 0,05 (FWE) über den Raum und die sechs Zeitpunkte zu erreichen.

Cistanche-improve memory4

Ergebnisse

Verhaltensleistung

Explizite Gedächtnisaufgabe

Wenn die Teilnehmer ihre mnemonischen Erfahrungen wahrheitsgemäß berichteten, die von jedem Testgesicht hervorgerufen wurden, erreichten sie eine mittlere SD-Trefferrate (die Rate, mit der ALTE Bilder genau als „alt“ beurteilt wurden) von {{0}}.73 0. 12 und eine FA-Rate (die Rate, mit der NEUE Bilder fälschlicherweise als „alt“ beurteilt wurden) von 0,27 0,10, was zu einem Mittelwert von d von 1,27 0,56 führt. Mittlere Antwortzeiten (RTs) waren schneller für richtige Antworten (Treffer, 1,74 0,60 s; CRs, 2,10 0,75 s) als für falsche Antworten (FAs, 2,{{16 }}.01 s; Fehler: 2.33 0.81 s; t(23) 5.15, S. 3.22 10 5). Hit-Antworten waren schneller als CR-Antworten (t(23) 5,44, p 1.56 10 5).

Vergleich von expliziten und verdeckten Gedächtnisaufgaben

Der mittlere d war bei der expliziten Gedächtnisaufgabe signifikant größer als bei der verborgenen Gedächtnisaufgabe (t(23) 2,99, p 6.6 10 3). Es gab keine Aufgabenunterschiede in der mittleren RT für irgendein Gedächtnisergebnis (alle p-Werte 0,05). Es gab jedoch eine signifikante Wechselwirkung zwischen Aufgabe und Gedächtnis, da der durchschnittliche Unterschied in RT für Treffer und CRs bei der expliziten Gedächtnisaufgabe größer war als bei der verdeckten Gedächtnisaufgabe (t(23) 6.25, p 2. 22 10 6). Dieser unterschiedliche Effekt des Gedächtnisses auf RT als Funktion der Aufgabe kann aus dem Unterschied in d zwischen den expliziten und verborgenen Gedächtnisbedingungen resultieren und ist wahrscheinlich eine Folge der Dual-Task-Natur der verborgenen Gedächtnisbedingung: Die Teilnehmer mussten zuerst feststellen ob Gesichter alt oder neu waren, und dann schnell zu einer Strategie zum Verbergen von Erinnerungen/Neuheiten wechseln und gleichzeitig ihre motorischen Reaktionen umkehren.

Univariate fMRI-Analysen

Wir untersuchten zunächst die Frage, ob die Teilnehmer strategische Gegenmaßnahmen ergreifen könnten, um gedächtnisbezogene BOLD-Signale studienübergreifend zu modulieren (dh univariate fMRT-Antworten). Dazu haben wir für jede Aufgabe separat „Erinnerungserfolgseffekte“ (Treffer-CRs) identifiziert und dann festgestellt, wo Gedächtniserfolgseffekte bei allen Aufgaben gemeinsam waren und wo sie durch die Aufgabe moduliert wurden. Anschließend untersuchten wir, ob die Fähigkeit, Gedächtniserfolgseffekte zu modulieren, von der Gedächtnisstärke beeinflusst wurde.

Gemeinsame Gedächtniserfolgseffekte

Da die Teilnehmer in beiden Aufgaben feststellen mussten, ob ein Gesicht alt oder neu war, versuchten wir als nächstes zu bestimmen, ob es Regionen gab, die Treffer von CRs in beiden Aufgaben unterschieden. Um dies zu tun, haben wir die vorangehenden Gedächtniserfolgskontraste einschließlich maskiert (jeweils bei p {{0}},01, um zu einem gemeinsamen Schwellenwert von p 0,001 zu führen). Das Ergebnis dieses Maskierungsverfahrens zeigte Effekte im linken IPS und im linken VTC (Abb. 1C).


Es ist weniger wahrscheinlich, dass umgekehrte Gedächtniserfolgseffekte im linken AnG gezeigt werden (r {{0}}.36, p 0.04). Mit anderen Worten, ihre Gedächtniserfolgseffekte blieben trotz der Versuche, ihr Gedächtnis zu verbergen, bestehen. Dieser Befund deutet darauf hin, dass Teilnehmer mit stärkeren Erinnerungen größere Schwierigkeiten hatten, ihre AnG-Aktivität während der verborgenen Aufgabe zu modulieren. Interessanterweise zeigte keiner der Hippocampus-Cluster eine signifikante Beziehung zwischen Gedächtnisstärke und Aktivität (rechter Hippocampus,r0.{{10}}5,p 0.82; linker Hippocampus, r0,22, p 0,29), und die Steigungen der Korrelationen unterschieden sich zwischen AnG und rechtem Hippocampus (Williams t(21) 2,49, p 0,021) und geringfügig unterschiedlich für den linken Hippocampus (Williams t(21) 1,62, p 0,12) . Zusammengenommen deuten diese Ergebnisse darauf hin, dass Teilnehmer mit stärkeren Erinnerungen weniger in der Lage waren, eine zielgerichtete Kontrolle über gedächtnisbezogene Aktivitäten im linken AnG auszuüben, aber dies schien im bilateralen Hippocampus nicht der Fall zu sein.

Multivariate fMRI-Analysen

Unsere zentrale Frage ist, ob der Einsatz kognitiver (zielgerichteter) Gegenmaßnahmen es den Teilnehmern ermöglichen würde, neuronale Muster im Zusammenhang mit dem Gedächtnis zu maskieren, wodurch die Fähigkeit multivariater Techniken beeinträchtigt würde, ihre Gedächtniszustände für einzelne Ereignisse auszulesen. Dementsprechend bewerteten wir als nächstes die Fähigkeit von MVPA-Klassifikatoren, den Gedächtnisstatus einzelner Abrufversuche zu decodieren, indem wir (1) zuerst einen Klassifikator mit Daten aus der Standarderkennungsgedächtnisaufgabe (explizite Gedächtnisaufgabe) trainierten und testeten und (2) dann bewerteten ob dies der Fall ist Der Klassifikator konnte auch das Gedächtnis entschlüsseln, wenn die Teilnehmer versuchten, ihre Gedächtniszustände zu verbergen (verdeckte Gedächtnisaufgabe). Unser Prozessmodell schlug drei alternative Szenarien zum Testen vor; Wir beginnen mit der Erläuterung unseres Prozessmodells und beschreiben dann der Reihe nach jede Hypothese.


Das könnte dir auch gefallen