CMOS-basierte flächen- und leistungseffiziente Neuronen- und Synapsenschaltungen für analoge Spiking-Neuronale Netze im Zeitbereich

Dec 06, 2023

ABSTRAKT

Herkömmliche neuronale Strukturen neigen dazu, über analoge Größen wie Ströme oder Spannungen zu kommunizieren. Wenn jedoch CMOS-Geräte schrumpfen und die Versorgungsspannungen sinken, wird der Dynamikbereich von Analogschaltungen im Spannungs-/Strombereich schmaler, der verfügbare Spielraum wird kleiner und die Störfestigkeit nimmt ab. Darüber hinaus führt die Verwendung von Operationsverstärkern (Op-Amps) und zeitkontinuierlichen oder getakteten Komparatoren in herkömmlichen Designs zu einem hohen Energieverbrauch und einer großen Chipfläche, was sich nachteilig auf den Aufbau neuronaler Netze mit Spannungsspitzen auswirken würde. Vor diesem Hintergrund schlagen wir eine neuronale Struktur zur Erzeugung und Übertragung von Zeitbereichssignalen vor, einschließlich eines Neuronenmoduls, eines Synapsenmoduls und zweier Gewichtsmodule. Die vorgeschlagene neuronale Struktur wird durch einen Leckstrom von MOS-Transistoren angetrieben und nutzt einen auf einem Inverter basierenden Komparator, um eine Zündfunktion zu realisieren, wodurch im Vergleich zu herkömmlichen Designs eine höhere Energie- und Flächeneffizienz erzielt wird. Die vorgeschlagene neuronale Struktur wird mithilfe einer TSMC 65-nm-CMOS-Technologie hergestellt. Das vorgeschlagene Neuron und die Synapse nehmen eine Fläche von 127 bzw. 231 lm2 ein und erreichen gleichzeitig Zeitkonstanten im Millisekundenbereich. Tatsächliche Chipmessungen zeigen, dass die vorgeschlagene Struktur die zeitliche Signalkommunikationsfunktion mit Zeitkonstanten im Millisekundenbereich implementiert, was einen entscheidenden Schritt in Richtung Hardware-Reservoir-Computing für die Mensch-Computer-Interaktion darstellt. Simulationsergebnisse des Spiking-Neuronalen Netzwerks für Reservoir-Computing mit dem Verhaltensmodell der vorgeschlagenen Neuronenstruktur demonstrieren die Lernfunktion.

Desert ginseng-Improve immunity (12)

Vorteile von Cistanche für Männer: Stärkung des Immunsystems

Klicken Sie hier, um die Produkte von Cistanche Enhance Immunity anzusehen

【Fragen Sie nach mehr】 E-Mail:cindy.xue@wecistanche.com / Whats App: 0086 18599088692 / Wechat: 18599088692

Deep Neural Networks (DNNs), die zweite Generation künstlicher neuronaler Netzwerke (ANNs), wurden in den letzten Jahren umfassend für eine wachsende Zahl von Anwendungen erforscht. Ihr enormer Energieverbrauch, insbesondere für den Speicherzugriff in der konventionellen von Neumann-Architektur, hat die Menschen jedoch gezwungen, einen alternativen Weg zu finden, um energieeffizientere Lösungen zu erreichen.1–6 Spiking Neural Network (SNN) ist neben der dritten eine der attraktiven Lösungen Generation von KNNs, die eine Lernfunktion mit geringer Leistung realisieren können, indem sie biologische Neuronen nachahmen. SNNs bestehen aus Neuronen und Synapsen und werden normalerweise nach einem Bottom-up-Ansatz aufgebaut, was bedeutet, dass jede Komponente der SNNs zuerst entworfen werden muss.6–12 Es wurde über viele Hardware-Implementierungen gepulster Neuronen oder Synapsen berichtet.13–21 Zu Um die Leaky-Integrate-Funktion von Neuronen zu implementieren, bauen herkömmliche Designs Integratoren normalerweise mit Operationsverstärkern (Op-Amps)14 und verwenden oft große On-Chip-Kondensatoren und Widerstände, um die Millisekunden-Zeitkonstanten biologischer Neuronen nachzuahmen.16,17 Darüber hinaus werden zur Implementierung der Neuronen-„Feuer“-Funktion wird normalerweise eine spezielle Schaltungsstruktur eines zeitkontinuierlichen oder getakteten Komparators verwendet, um den Schwellenwert für die Neuronenerregung festzulegen.13–16,20 Der Vorstrom des zeitkontinuierlichen Komparators erhöht zweifellos den Stromverbrauch des Neuron, während der getaktete Komparator eine zusätzliche Taktsignalverteilung erfordert und die komplexe Komparatorstruktur eine große Chipfläche einnimmt. Fortgeschrittenere Prozesse können zwar durch Reduzierung der Versorgungsspannung und des statischen Leckstroms einen geringeren Stromverbrauch erreichen,21 führt aber auch zu einem engeren Dynamikbereich, einem geringeren verfügbaren Spielraum und einer verschlechterten Störfestigkeit der analogen Schaltkreise im Spannungs-/Strombereich.22 Dies ist nachteilig für herkömmliche neuronale Netze, die analoge Größen wie Spannung und Strom nutzen, um miteinander zu kommunizieren. Andererseits können dank der skalierten Transistoren, die eine höhere Betriebsgeschwindigkeit bei scharfen Signalübergängen haben, die analogen Informationen im Zeitbereich, also einem Zeitintervall von zwei Signalübergängen, effizienter dargestellt werden. Dieser sogenannte Zeitbereichsschaltkreis hat einen weiteren Vorteil in seiner Energieeffizienz, da er häufig aus Wechselrichtern oder Logikgattern besteht, die im Idealfall keinen Gleichstrom verbrauchen.22,23 Daher sind Zeitbereichsschaltkreise ideal für zukünftige Implementierungen von SNNs mit geringem Stromverbrauch .

Desert ginseng-Improve immunity (21)

Vorteile von Cistanche für Männer: Stärkung des Immunsystems

In diesem Artikel schlagen wir eine ursprüngliche neuronale Struktur zum Erzeugen und Übertragen von Zeitbereichssignalen vor, um ein neuronales Zeitbereichsnetzwerk aufzubauen. Die integrierte Struktur umfasst Neuronen- und Synapsenmodule, die Zeitsignale erzeugen bzw. übertragen, sowie Gewichtsmodule für Lernfunktionen. Eine unserer Hauptzielanwendungen ist das Reservoir-Computing, das Informationen über menschliche Aktivitäten verarbeitet. Unsere Anwendung zielt auf eine einfachere und weniger datenintensive Verarbeitung, beispielsweise von Biosignalen, ab. Beim Reservoir Computing können Lernfunktionen wie EKG- und Sprechererkennung sowie Handschrifterkennung mit nur wenigen hundert Neuronen umgesetzt werden. Referenz 24 zeigt, dass sich die Lernleistung verbessert, wenn die Zeitkonstanten der Eingabeeffekte zwischen der Zielfunktion und der Reservoirdynamik abgeglichen werden, und wir verwenden Millisekunden-Zeitkonstanten als Entwurfsziel für eine neuronale Struktur, die zur Verarbeitung von Zeitreiheninformationen verwendet wird menschliche Aktivitäten. Wir verwenden das Verhaltensmodell der vorgeschlagenen neuronalen Struktur, um das SNN für die Reservoirberechnung zu konstruieren und die Lernfunktion zu implementieren, was beweist, dass unsere vorgeschlagene neuronale Struktur für die Reservoirberechnung verwendet werden kann. Die entworfene und hergestellte neuronale Struktur ist in Abb. 1(a) dargestellt, die auf den vorgeschlagenen Neuronen-, Synapsen- und Gewichtsmodulen basiert, die im Folgenden ausführlich beschrieben werden. In dieser Struktur ist der Eingang des Neuronenmoduls mit zwei Gewichtsmodulen verbunden, eines zur Abstimmung des Hemmsignals und das andere für das Erregungssignal. Wir haben die in Abb. 1 (a) gezeigte vorgeschlagene neuronale Struktur mit einer TSMC 65-nm-Standard-CMOS-Technologie hergestellt. Die mikroskopische Aufnahme des Chips ist in Abb. 1(b) dargestellt, wobei die Chipfläche der Neuronen-, Synapsen- und Gewichtsmodule 127, 231 bzw. 525 lm2 beträgt.

Die GHT-Module haben jeweils 127, 231 und 525 lm2. Das LIF-Neuronenmodell besteht hauptsächlich aus einem Membrankondensator, einem Leckwiderstand und einem Spannungskomparator. Neuronen empfangen über Synapsen Signale von anderen Neuronen und das Soma erzeugt als Reaktion auf diese externen Signale Aktionspotentiale. Wenn ein Neuron eine ausreichende Anzahl von Spikes über die Synapse empfängt, erreicht sein Membranpotential einen Schwellenwert, wodurch das Neuron „feuert“.8,25,26 Die Verwendung von Invertern zur Implementierung der „Feuer“-Funktion ist bereits bekannt eine Alternative zu Komparatoren. In Referenz 27 wurde ein Inverter-basiertes Neuron vorgeschlagen, das sich gut für die Verwendung in der vorgeschlagenen neuronalen Struktur eignet. Daher wurde das in dieser Studie verwendete Neuron auf der Grundlage von Referenz entworfen. 27, die in Abb. 2(a) dargestellt ist. Es besteht aus einem Eingabegerät, einem Leckintegratorgerät, einem Feuergerät und einem Verzögerungsgerät. Ursprünglich in Ref. In 27 wird davon ausgegangen, dass der Schaltkreis nicht als Element zum Aufbau eines neuronalen Netzwerks konzipiert ist und daher keine Struktur zum Empfang erregender und hemmender Signale aufweist. In der vorgeschlagenen Schaltung hingegen empfängt das Eingabegerät, das aus M1 und M2 besteht, jeweils eine erregende Eingabe und eine hemmende Eingabe. Die Eingänge zu M1 und M2 sind schmale Impulssignale, wie in Abb. 2(a) gezeigt, die von einer Synapse vor der Stufe erzeugt werden. Die Aktivität der Vorstufensynapse wird durch die Pulsfrequenz dargestellt, und das Kopplungsgewicht wird durch die Pulsbreite dargestellt. Wenn mehr als eine Vorstufensynapse verbunden ist, um ein Netzwerk zu bilden, können die mehreren Impulse über eine ODER-Logik oder durch Hinzufügen parallel geschalteter Eingabegeräte angelegt werden. Bei parallelen Eingabegeräten kann der Neuronenschaltkreis sogar mehrere Impulse gleichzeitig aufnehmen.

Desert ginseng-Improve immunity (23)

Cistanche tubulosa – verbessert das Immunsystem

Im Leaky-Integrator-Gerät stellt Cmem die Zellmembran des Neurons dar, und M5 kann im Ruhezustand als Leaky-Widerstand betrachtet werden. Wenn kein externer Eingang zum Eingabegerät vorhanden ist, wird der Kondensator durch den Leckstrom von M3 und M4 geladen, und das Membranpotential Vmem steigt kontinuierlich mit dem Zufluss des Leckstroms [der Strom wird wie in Abb. 2 dargestellt integriert. Bi)]. Da sich M5 zu diesem Zeitpunkt im ausgeschalteten Zustand befindet, kann er als Widerstand parallel zum Kondensator betrachtet werden, dh als Leckwiderstand, der eine Langzeitkonstante erreichen kann. Sobald Vmem die Schwellenspannung VthðFireÞ erreicht, wird die Zündvorrichtung aktiviert [Abb. 2(b-ii)]. In herkömmlichen Designs verwenden LIF-Neuronen meist dedizierte Schaltungsstrukturen aus zeitkontinuierlichen oder getakteten Komparatoren, um die Schwellenspannung einzustellen. Dies ist nicht förderlich für den Aufbau von SNNs, die so energieeffizient und bioskaliert sind wie das Gehirn. In dieser Studie wird die Zündvorrichtung durch einen Inverter-basierten Komparator implementiert, der die Schwellenspannung durch zwei Transistoren anstelle eines zeitkontinuierlichen oder getakteten Komparators einstellen kann. Um eine genaue Schwellenspannung für einen wechselrichterbasierten Komparator zu erreichen, können wir eine Technik zur automatischen Nullung verwenden, die den Offset mit Schaltern und Kondensatoren periodisch erfasst, speichert und löscht.28 Allerdings sind mehrphasige Taktgeber zur Steuerung der Schalter erforderlich; Daher ist es nicht für flächen- und energieeffiziente Reservoirimplementierungen geeignet. Obwohl es bei einem einfachen Komparator auf Wechselrichterbasis aufgrund von Prozess-, Spannungs- und Temperaturschwankungen zu einer Schwellenwertschwankung kommen kann, kann dies als Nachahmung des Unterschieds zwischen Individuen echter Neuronen angesehen werden. Darüber hinaus kann die Lernfunktion Schwellenwertunterschiede und Prozessschwankungen ausgleichen.29 Bei einem anregenden Impulseingang wird M1 sofort eingeschaltet, was dazu führt, dass mehr Strom Cmem auflädt und Vmem schnell ansteigt. Umgekehrt führt ein hemmendes Impulseingangssignal dazu, dass M2 kurzzeitig eingeschaltet wird, was dazu führt, dass Cmem langsamer aufgeladen wird oder sich sogar über M2 entlädt, was wiederum die Anstiegsgeschwindigkeit von Vmem verlangsamt oder sie fallen lässt.

Wenn die Zündvorrichtung aktiviert wird, erzeugt sie einen niedrigen Pegel VFire, der an M4 angeschlossen wird, wodurch der Strom zum Laden des Membrankondensators Cmem erhöht wird, was zu einem sofortigen Anstieg des Membranpotentials Vmem führt, was die Auslösung der Zündung fördert Gerät. Dadurch wird der Einstrom von Naþ in die Zellmembran nachgeahmt, was zu einem schnellen Anstieg der Membranspannung führt, also zu einem positiven Rückkopplungseffekt. Schließlich wird das vom Zündgerät erzeugte niedrige VFire-Niveau in ein hohes VSpike-Niveau umgewandelt [Abb. 2(b-iii)] durch ein Verzögerungsgerät, das einen dreistufigen Wechselrichter enthält und den VSpike mit M3 und M5 verbindet, wodurch Vmem auf Null zurückgesetzt wird. Dieser Prozess ahmt die Aktivierung von Kþ-Kanälen in biologischen Neuronen nach, was zum Ausfluss von Kþ-Ionen und schließlich zur Rückkehr der Zellmembran in ihren Ruhezustand führt.

Synapsen sind wesentliche Module in SNNs, da Neuronen durch sie miteinander verbunden sind. Wir haben ein Neuronenmodul zur Erzeugung von Zeitsignalen entworfen und benötigen dann ein Übertragungsmedium, also eine Synapse, um dieses Zeitsignal an andere Neuronen zu übertragen. Um ein vollständiges neuronales Netzwerk aufzubauen, entwerfen wir ein Synapsenmodul basierend auf Frequenzsignalen, wie in Abb. 2 (c) dargestellt. Die Synapse besteht hauptsächlich aus einem spannungsgesteuerten Ringoszillator, der unter einem Leckstrom arbeitet und aus einem dreistufigen Inverter (M6; M7; M8; M9; M10 und M11) besteht. Der vorherige Neuronenschaltkreis zündet und erzeugt eine Spitze VSpike, die von einem Wechselrichter invertiert wird, wodurch M5 für kurze Zeit geöffnet wird und der durch M5 fließende Strom CSYN lädt, was VSYN erhöht. Sobald VSYN die Spannung erreicht, die die Schwingung auslöst, beginnt der Ringoszillator zu schwingen [Abb. 2(b-iv) und 2(bv)]. Wenn das vorhergehende Neuron längere Zeit nicht feuert, wird VSYN bis zum Anfangszustand durchsickern, woraufhin die Synapse wieder inaktiv wird. Da VSYN der Versorgungsspannung des Ringoszillators entspricht, steuert der aus M5 fließende Strom VSYN und damit die Frequenz des Ringoszillators.

cistanche benefits for men-strengthen immune system

Vorteile von Cistanche für Männer: Stärkung des Immunsystems

SNNs erreichen die Lernfunktion durch Anpassen der Gewichte; Daher schlagen wir ein Gewichtsmodul vor, das mit den oben beschriebenen vorgeschlagenen Neuronen- und Synapsenmodulen im Zeitbereich kompatibel ist, wie in Abb. 2 (d) dargestellt. Das vorgeschlagene Gewichtungsmodul optimiert die Zeitbereichsinformationen, also die Breite der Ausgangsimpulse. Dieses Modul besteht aus einer Verzögerungsleitung, einem Multiplexer und einem UND-Gatter. VRing ist das Rechteckwellensignal von der Synapse, das durch die Verzögerungsleitung läuft. VWeight ist der digitale Code, der das Gewicht darstellt, der nach dem Lernen ermittelt und zur Steuerung des Multiplexers verwendet wird. Die Breite des Ausgangsimpulses, die der Zeitbereichsgewichtung entspricht, wird abhängig davon angepasst, welcher Abgriff in der Wechselrichterkette vom Multiplexer ausgewählt wird. Wie bereits erwähnt, wird die Spannung Vmem im nachfolgenden Neuron schneller geladen bzw. entladen, wenn die Breite des erregenden oder hemmenden Impulses groß ist. Dies entspricht einem großen Gewicht. In dieser Studie haben wir einen Multiplexer mit 16 Eingängen gewählt, also Vier-Bit-Gewichtungen (0000 bis 1111). Der Ausgang des Gewichtsmoduls ist mit dem Eingabegerät der nachfolgenden Neuronenschaltkreise verbunden. Die Frequenz des Impulses (Impulsabstand) und die Breite des Impulses wirken gleichzeitig auf das Neuron und verändern dessen Aktivität. Die Frequenz des Impulses wird durch die Ausgangsfrequenz der vorherigen Synapse bestimmt, während die Kopplungsstärke von der Breite des Impulsausgangs abhängt, die durch das Gewichtsmodul bestimmt wird.

FIG. 1. (a) The proposed structure and (b) a micrograph of the chip.

FEIGE. 1. (a) Die vorgeschlagene Struktur und (b) eine Mikroaufnahme des Chips.

FIG. 2. (a) Circuit diagram of the proposed neuron module, (b) behaviors of proposed LIF neuron and synapse modules, (c) circuit diagram of the proposed synapse module, and (d) circuit diagram of the proposed weight module.


FEIGE. 2. (a) Schaltplan des vorgeschlagenen Neuronenmoduls, (b) Verhalten der vorgeschlagenen LIF-Neuronen- und Synapsenmodule, (c) Schaltplan des vorgeschlagenen Synapsenmoduls und (d) Schaltplan des vorgeschlagenen Gewichtsmoduls.

Abbildung 3(a) zeigt den Versuchsaufbau, der zum Testen des hergestellten neuronalen Strukturchips verwendet wurde [Abb. 1(b)], wobei der Chip auf einer Sondenstation Summit 11000 platziert und mit Sonden in direktem Kontakt damit getestet wurde. In den Experimenten gehen wir davon aus, dass die Eingänge der beiden Gewichtsmodule die Synapsen der Vorstufe sind, die von den Arbiträrfunktionsgeneratoren emuliert werden. Die Ausgabe des Neurons ist mit dem Synapsenmodul verbunden, dessen Ausgabe als Reaktion auf die Änderung der Ausgabe des Neurons variiert wird. Wir verwendeten einen Arbiträrfunktionsgenerator AFG31252 von Tektronix als Vorstufensynapse, um Rechtecksignale für unsere hergestellten neuronalen Schaltkreise bereitzustellen. Gleichzeitig haben wir die Ausgangswellenformen mit Oszilloskopen (Keysight MSOX6004A und DSOX93304Q) beobachtet. Die experimentellen Ergebnisse sind in den Abbildungen dargestellt. 3(b)–3(d). Um die Auswirkung von Gewichten auf die Feuerrate von Neuronen zu überprüfen, haben wir die Frequenz des Synapsenausgangs vor der Stufe (Funktionsgenerator) auf 100 Hz festgelegt und die Änderung der Feuerrate von Neuronen für vier Chips beobachtet, indem wir das Gewichtungsmodul angepasst haben. Wir haben die Spitzenfrequenzen 1024-mal über einen Zeitraum von 100 ms gemittelt, um die entsprechende neuronale Feuerfrequenz für jede Gewichtseinstellung abzuleiten, wie in Abb. 3 (b) dargestellt. Das vorgeschlagene Neuron feuert grundsätzlich mit der Rate, die durch die Leckströme in und aus Cmem im Gleichgewicht bestimmt wird, und der Eingang aus der vorherigen Stufe moduliert es. Wir können sehen, dass die Feuerfrequenz des Neuronenmoduls größer wird, wenn die Gewichte größer werden. Hauptsächlich aufgrund der Prozessschwankungen der FETs schwankt die Zündfrequenz über vier Chips hinweg zwischen etwa 610 % und 17 %. Insbesondere für den Einsatz in einem Reservoir sollten jedoch aufgrund der zufälligen Gewichte in seinen wiederkehrenden Verbindungen diese zufälligen Variationen während des Lernprozesses in den Ausgabegewichten kompensiert werden.

Abbildung 3(c) vergleicht die Variation der Neuronenfeuerzeiten in Abhängigkeit vom Signal von der Synapse vor der Stufe. Die Einschübe (i)–(iii) in Abb. 3(c) zeigen die Fälle mit 100-Hz-Hemmungseingang (Gewicht ist auf 1100 eingestellt), ohne Eingang bzw. mit 100-Hz-Erregungseingang (Gewicht ist auf 1100 eingestellt). Daraus können wir ersehen, dass der inhibitorische Input die Feuerfrequenz des Neurons verringert und das Feuerintervall verlängert, während der erregende Input das Gegenteil des inhibitorischen Inputs ist. Die experimentellen Ergebnisse zeigen, dass das Feuerintervall des vorgeschlagenen Neurons in der Größenordnung von Millisekunden liegt, was mit der Eigenschaft biologischer Neuronen übereinstimmt, die Zeitkonstanten im Millisekundenbereich haben. Wenn kein Signal von der Vorstufensynapse eingespeist wird, beträgt der Stromverbrauch etwa 800 pW, was etwa 20 Spitzen in einem 100-ms-Zyklus erzeugt. Daraus lässt sich grob abschätzen, dass jeder Spike etwa 4 pJ Energie verbraucht. Anschließend wurden die Einschübe (i) – (iii) von Abb. 3 (c) als Eingangssignale für die Synapse verwendet, um VRing zu beeinflussen. Die gemessenen VRing-Wellenformen in diesen drei Fällen sind in Abb. 3 (d) dargestellt. Die durchschnittlichen Frequenzen für jeden Fall, gemessen in einem Zeitraum von 5 Sekunden, betragen 41, 90 bzw. 98 Hz. Die Machbarkeit dieses Synapsen-Ausgangsfrequenzbereichs wird in der folgenden Diskussion mit Simulationen auf Systemebene validiert.

FIG. 3. (a) A photo of the experimental setup, (b) the measured firing rate of the neuron for four chips, (c) the measured waveforms of the neuron output, and (d) the measured waveforms of the synapse output.

FEIGE. 3. (a) Ein Foto des Versuchsaufbaus, (b) die gemessene Feuerrate des Neurons für vier Chips, (c) die gemessenen Wellenformen des Neuronenausgangs und (d) die gemessenen Wellenformen des Synapsenausgangs.

FIG. 4. (a) Another combined structure fabricated to evaluate the synapse and (b) the measured waveforms of VRing and VSYN.


FEIGE. 4. (a) Eine weitere kombinierte Struktur, die zur Auswertung der Synapse und (b) der gemessenen Wellenformen von VRing und VSYN hergestellt wurde.

Um die Beobachtung der synchronen Reaktion der Synapse zu erleichtern, haben wir auch die Struktur von Abb. 4 (a) hergestellt. Abbildung 4(b) zeigt die experimentellen Ergebnisse von Abb. 4(a). Wir haben einen Tektronix AFG31252 Arbiträrfunktionsgenerator verwendet, um ein 10-Hz-Rechteckwellensignal VIN zu erzeugen, wie in Abb. 4(ai) gezeigt. Nachdem VIN ein Gewichtsmodul durchlaufen hat, erzeugt es ein Spitzensignal VOUTðWeightÞ. Die Spannung VSYN wird über einen On-Chip-Source-Folger als analogen Puffer überwacht. Obwohl VOUTðWeightÞ nicht für die Beobachtung von außen konzipiert ist, da es sich um einen schmalen Impuls handelt, steigt die VSYN-Spannung an der Synapse mit dem Eintreffen von VOUTðWeightÞ nach der fallenden Flanke von VIN augenblicklich an, wie in Abb. 4(b-ii) dargestellt. was wiederum die Häufigkeit von VRing erhöht. Wenn das VOUTðWeightÞ längere Zeit nicht eintrifft, nimmt VSYN ab, was wiederum dazu führt, dass die VRing-Frequenz kleiner wird. Tabelle I zeigt den Leistungsvergleich zwischen eigenständigen Neuronenschaltungen. Der vorgeschlagene Neuronenschaltkreis bietet Vorteile hinsichtlich des Energieverbrauchs und der Fläche. Die Designs in Refs. 13–16 verwendeten einen zeitkontinuierlichen oder einen getakteten Komparator, und diese Designs beanspruchen viel Chipfläche und verbrauchen viel Strom. Das in einem Nicht-CMOS-Prozess hergestellte Neuron, vorgeschlagen in Ref. 18 erfordert keinen Komparator, was zu einem Vorteil in diesem Bereich führt. Allerdings ist der Energieverbrauch relativ hoch und diese speziellen Technologien sind weniger ausgereift und daher im Vergleich zu Standard-CMOS-Prozessen teurer. Beide Refs. 19 und 21 werden in einem fortgeschrittenen Verfahren hergestellt. Im Vergleich zu dieser Arbeit ist Ref. 19 hat hinsichtlich des Energieverbrauchs und der Fläche keinen Vorteil. Obwohl Ref. 21 zeigt eine bessere Energieeffizienz mit Simulationsergebnissen. Wenn das vorgeschlagene Neuron durch den Technologieknoten normalisiert wird, erreicht es eine bessere Flächeneffizienz.

Um die Machbarkeit des vorgeschlagenen Spike-Neurons und der auf Ringoszillatoren basierenden Synapsenschaltungen zu demonstrieren, wird eine Verhaltenssimulation in einer MATLAB-Umgebung durchgeführt, wie in Abb. 5 (a) dargestellt. In dieser Simulation werden 100 Neuronen mit zufällig wiederkehrenden Verbindungen mit den vorgeschlagenen Synapsen- und Gewichtungsmodulen verwendet. Die vorgeschlagenen Gewichtsmodule werden nur in der Reservoirschicht angewendet und ihre Gewichte werden im Voraus zufällig zugewiesen und während des Lernprozesses festgelegt. Somit werden die zufälligen Schwankungen im Reservoir während des Lernprozesses in den Ausgabegewichten ausgeglichen. Um eine realistische Simulation zu ermöglichen, wird der Ausgangsfrequenzbereich jeder Synapse basierend auf den tatsächlichen Messergebnissen auf 15 bis 200 Hz eingestellt. Der rekursive Algorithmus der kleinsten Quadrate (RLS) wird zum Trainieren der Ausgabegewichte verwendet, wie in Ref. eingeführt. 30. Als Beispiel für ein Überwachungseingangssignal wird eine 10-Hz-Sinuswelle verwendet, die der Zeitskala menschlicher Aktivitätsinformationen entspricht. Das Überwachungs- und das trainierte Ausgangssignal sind in Abb. 5(bi) dargestellt. Das Rückkopplungssignal vom Ausgang wird in anregende und hemmende Impulsfolgen umgewandelt, deren Frequenz proportional zum Absolutwert der Ausgangsamplitude ist, wie in den Abbildungen dargestellt. 5(b-ii) bzw. 5(b-iii). Nach fünf Überwachungssignalperioden sind die Ausgabegewichte festgelegt und der SNN generiert selbst das gelernte Signal, was die Machbarkeit der vorgeschlagenen neuronalen Strukturen für die Lernfunktion demonstriert. Wir haben aus diesen Simulationen auch herausgefunden, dass zur weiteren Verbesserung der Lernfähigkeit der Ausgangsfrequenz-Abstimmbereich der Synapse vergrößert werden sollte, was durch Optimierung des Synapsenschaltkreises erreicht werden kann. Mit den erweiterten Frequenzabstimmungsbereichen von 15 Hz–2 kHz und 15 Hz–20 kHz werden die gelernten Signale beispielsweise glatter, um das Überwachungssignal besser zu reproduzieren, wie in den Abbildungen gezeigt. 5(b-iv) bzw. 5(bv).

Desert ginseng-Improve immunity (2)

Cistanche tubulosa – verbessert das Immunsystem

Zusammenfassend haben wir eine neuronale Struktur zur Erzeugung und Übertragung von Zeitbereichssignalen vorgeschlagen. Das vorgeschlagene Neuron und die Synapse nehmen eine Fläche von 127 bzw. 231 lm2 ein. Diese Struktur verwendet keine Operationsverstärker und zeitkontinuierlichen oder getakteten Komparatoren, während die Zündfunktion mit einem Komparator auf Wechselrichterbasis realisiert wird, um Vorteile bei Fläche und Stromverbrauch zu bieten. Die vorgeschlagene neuronale Struktur im Zeitbereich profitiert von skalierten Prozesstechnologien im Vergleich zu herkömmlichen Designs im Spannungs-/Strombereich. Tatsächliche Chip-Herstellungs- und Messergebnisse demonstrieren die Funktion der zeitlichen Signalkommunikation mit Zeitkonstanten im Millisekundenbereich. Die vorgeschlagene neuronale Struktur im Zeitbereich eignet sich gut für den Aufbau neuronaler Netze mit Spikes zur Verarbeitung von Echtzeit-Zeitreiheninformationen für die Mensch-Computer-Interaktion.

TABELLE I. Leistungsvergleich eigenständiger Neuronenschaltungen

TABLE I. Performance comparison of stand-alone neuron circuits

FIG. 5. (a) The behavioral model of the SNN for reservoir computing is based on the proposed neural structure. (b) The system-level behavioral simulation results: (i) based on a model with 15–200 Hz frequency tuning range, a zoomed-in view of the (ii) excitatory and (iii) inhibitory input signals converted from the output, (iv) based on 15–2 kHz and (v) 15–20 kHz frequency tuning ranges.


FEIGE. 5. (a) Das Verhaltensmodell des SNN für die Reservoirberechnung basiert auf der vorgeschlagenen neuronalen Struktur. (b) Die Ergebnisse der Verhaltenssimulation auf Systemebene: (i) basierend auf einem Modell mit einem Frequenzabstimmbereich von 15–200 Hz, einer vergrößerten Ansicht der (ii) erregenden und (iii) hemmenden Eingangssignale, die vom Ausgang umgewandelt wurden, (iv) basierend auf den Frequenzabstimmbereichen 15–2 kHz und (v) 15–20 kHz.

VERWEISE

1 Y. Zhang, P. Qu, Y. Ji, W. Zhang, G. Gao, G. Wang, S. Song, G. Li, W. Chen, W. Zheng, F. Chen, J. Pei, R . Zhao, M. Zhao und L. Shi, Nature 586, 378–384 (2020).

2 D. Shin und H.-J. Yoo, Proc. IEEE 108, 1245–1260 (2020).

3 Y. LeCun, Y. Bengio und G. Hinton, Nature 521, 436–444 (2015).

4 T. Kohno und K. Aihara, AIP Conf. Proz. 1028, 113–128 (2008).

5 E. Chicca und G. Indiveri, Appl. Physik. Lette. 116, 120501 (2020).

6 Y. Bo, P. Zhang, Y. Zhang, J. Song, S. Li und X. Liu, J. Appl. Physik. 127, 245101 (2020).

7 K. Yang und A. Sengupta, Appl. Physik. Lette. 116, 043701 (2020).

8 X. Chen, T. Yajima, IH Inoue und T. Iizuka, Jpn. J. Appl. Physik. 61, SC1051 (2022).

9 W. Maass, Neural. Netzwerke 10, 1659–1671 (1997).

10S. S. Radhakrishnan, A. Sebastian, A. Oberoi, S. Das und S. Das, Nat. Komm. 12, 2143 (2021).

11X. Chen, T. Yajima, IH Inoue und T. Iizuka, in Extended Abstract of International Conference on Solid State Devices and Materials (SSDM) (JSAP, 2021), S. 682–683.

12D. S. Jeong, J. Appl. Physik. 124, 152002 (2018).

13G. Indiveri, E. Chicca und R. Douglas, IEEE Trans. Neuronal. Netzwerke 17, 211–221 (2006).

14X. Wu, V. Saxena, K. Zhu und S. Balagopal, IEEE Trans. Schaltungen Syst. II 62, 1088–1092 (2015).

15A. Joubert, B. Belhadj, O. Temam und R. Heliot, in The 2012 International Joint Conference on Neural Networks (IJCNN), 2012.

16S. A. Aamir, P. Müller, G. Kiene, L. Kriener, Y. Stradmann, A. Grübl, J. Schemmel und K. Meier, IEEE Trans. Biomed. Schaltungen Syst. 12, 1027–1037 (2018).

17A. Basu und PE Hasler, IEEE Trans. Schaltungen Syst. I 57, 2938–2947 (2010).

18S. Dutta, V. Kumar, A. Shukla, NR Mohapatra und U. Ganguly, Sci. Rep. 7, 8257 (2017).

19A. Rubino, M. Payvand und G. Indiveri, in der 26. IEEE International Conference on Electronics, Circuits, and Systems (ICECS) (IEEE, 2019), S. 458–461.

20er Jahre. A. Aamir, Y. Stradmann, P. Müller, C. Pehle, A. Hartel, A. Grübl, J. Schemmel und K. Meier, IEEE Trans. Schaltungen Syst. I 65, 4299–4312 (2018).

21R. M. Sabre Moradi und SA Bhave, in der IEEE Symposium Series on Computational Intelligence (SSCI), 2017.

22K. Asada, T. Nakura, T. Iizuka und M. Ikeda, IEICE Electron. Express 15, 20182001 (2018).

23R. Staszewski, K. Muhammad, D. Leipold, C.-M. Hung, Y.-C. Ho, J. Wallberg, C. Fernando, K. Maggio, R. Staszewski, T. Jung, J. Koh, S. John, IY Deng, V. Sarda, O. Moreira-Tamayo, V. Mayega, R. Katz , O. Friedman, O. Eliezer, E. de Obaldia und P. Balsara, IEEE J. Solid-State Circuits 39, 2278–2291 (2004).

24C. Gallicchio und A. Micheli, Neural. Netzwerke 24, 440–456 (2011).

25L. F. Abbott und P. Dayan, Theoretical Neuroscience (The MIT Press, 2005).

26W. Gerstner und WM Kistler, Spiking Neuron Models: Single Neurons, Populations (Cambridge University Press, 2012).

27T. Yajima, Sci. Rep. 12, 1150 (2022).

28B. Razavi, Prinzip des Datenkonvertierungssystemdesigns (Wiley-IEEE Press, 1995).

29T. Wunderlich, AF Kungl, E. Müller, A. Hartel, Y. Stradmann, SA Aamir, A. Grübl, A. Heimbrecht, K. Schreiber, D. Stöckel, C. Pehle, S. Billaudelle, G. Kiene, C. Mauch, J. Schemmel, K. Meier und MA Petrovici, Front. Neurosci. 13, 1–15 (2019).

30D. Sussillo und L. Abbott, „Generierung kohärenter Aktivitätsmuster aus chaotischen neuronalen Netzen“, Neuron 63, 544–557 (2009).

Das könnte dir auch gefallen