Diskussion:MIDI

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 5 Tagen von Eliasorgel in Abschnitt Running Status nur nebenbei erwähnt...?
Zur Navigation springen Zur Suche springen
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.
Archiv
Wie wird ein Archiv angelegt?

Industriestandard

[Quelltext bearbeiten]

... ist eigentlich nicht mehr richtig, weil es inzwischen die MIDI-ORG gibt, die das definiert. Musicproducer (Diskussion) 23:26, 30. Sep. 2023 (CEST)Beantworten


Wo werden die Midi Töne eigentlich erzeugt?

[Quelltext bearbeiten]

Selbst wenn man eine externe Soundkarte hat, die nur Ein- und Ausgänge bereitstellt, funktioniert die Midi-Tonerzeugung dennoch. Es wäre schön, wenn der Artikel darauf eingehen könnte, wo die Töne nun eigentlich erzeugt werden. Ist das noch standardmässig auf jeder Soundkarte installiert? Ist es in Wirklichkeit eine Software? Ist diese im Betriebssystem vorhanden und wenn ja, welche Betriebssysteme handhaben das wie. Wenn letzteres: Gibt es überhaupt noch käufliche Soundkarten/ Onboard- Soundchips, welche die Erzeugung der Midi Töne vornehmen?

Ja, SB AWE 64 kann das. Heute sind aber Sampler effektiver. Der PC ist schnell genug. Und so wird auch das MIDI im PC vertont: er hat eine Tabelle intern im GM Format und dudelt selber. Musicproducer 02:27, 9. Jan. 2013 (CET)

Abschnitt Kritik

[Quelltext bearbeiten]

Leider finde ich keine Referenzen auf Quellen. Dabei wuerde mich das sehr interessieren. Ohne Quellen jedoch entferne ich das demnaechst. Traute Meyer 21:31, 20. Apr. 2009 (CEST)Beantworten

Nicht temperierte Stimmungen, Mikrotonalität

[Quelltext bearbeiten]

Der Artikel behauptet, MIDI unterstütze nur die gleichschwebend zwölfstufige Temperierung. Das sehe ich anders. Mit Pitch-Bend kann man den Tonraum in sehr kleinen Schritten ausfüllen; mit einem geeigneten Front-End (z. B. MUTABOR) kann man beliebige Stimmungen realisieren. --Joachim Pense (d) 07:40, 2. Okt. 2009 (CEST)Beantworten

Ich würde es anders ausdrücken: MIDI unterstützt im Grundsatz zunächst erstmal nur Halbtonschritte. Das sendende Gerät hat aber gar keine Information darüber, wie das Empfangsgerät die Tonhöhen interpretiert. Es kann sowohl eine "temperierte Stimmung haben" als auch jede andere mögliche Tonabstufung, z.B. eine "reine Stimmung". Das, was Du beschreibst, ist dagegen aus meiner Sicht ein "Workaround", der nur mit zusätzlichen Mitteln (wie von Dir beschrieben) erreichbar ist. -- NickNameX 01:59, 4. Okt. 2009 (CEST)Beantworten
Ich gebe dir völlig recht mit der Bemerkung über die Interpretation der Tonhöhen. De facto unterstützt MIDI 128-tel-Halbtonschritte, man braucht halt zwei Nachrichten dafür statt nur einer. Ob man das als Workaround interpretieren soll, ist eben eine Interpretationsfrage. --Joachim Pense (d) 11:26, 4. Okt. 2009 (CEST)Beantworten
(Oder sind es 64-tel Halbtonschritte? Ist zu lange her, dass ich mich damit im Detail beschäftigt habe) --Joachim Pense (d) 11:27, 4. Okt. 2009 (CEST)Beantworten
Zumindest wenn im Artikel immer noch "MIDI unterstützt nur die gleichschwebend zwölfstufige Temperierung" steht (hab grad nicht nachgesehen ..), ist das auf jeden Fall schonmal NICHT korrekt. -- NickNameX 09:37, 5. Okt. 2009 (CEST)Beantworten
Ich habe es jedenfalls nicht korrigiert. Statt dieses Satzes aus dem Kritik-Abschnitt sollte vielleicht etwas mehr über die Möglichekeiten von MIDI in dieser Hinsicht drinstehen. Hmmm; ich bin schon mehr als 15 Jahren aus dem Thema draußen …
Ich hab's gerade mal nachgelesen: "Schwerer wiegen Einschränkungen musikalischer Art. MIDI wurde konzipiert für die Steuerung von Synthesizern, die allesamt in derselben temperierten Stimmung betrieben werden. Für nicht-temperierte Stimmungen oder andere Skalen, als die der in der Popmusik beinah ausschließlich verwendeten 12 Halbtöne pro Oktave, ist MIDI nicht praktikabel."
Also, SO formuliert (unverändert!) finde ICH es in Ordnung. "Für nicht-temperierte Stimmungen oder andere Skalen ... nicht praktikabel"
Ich kenne kein Bühnen-Equipment, das betriebssicher und praktikabel die Pitchbend-Funktion nutzbar macht (so wie Du es eingangs beschrieben hast). PCs auf der Bühne sieht man zwar mittlerweise öfters, das ist mir aber noch zu weit weg von "praktikabel". Ich denke natürlich in Hardware ... ;-) (nicht signierter Beitrag von NickNameX (Diskussion | Beiträge) 17:03, 5. Okt. 2009 (CEST)) Beantworten
Liegt das am MIDI oder daran, dass einfach kein Bedarf besteht? Wenn man auf der Bühne mitteltönig will, dann stellt man halt auf dem Instrument mitteltönige Stimmung ein. Und in den Fällen, wo man tatsächlich mikrotonal oder gar in reiner Stimmung arbeiten will, dann muss man sich ja ohnehin darum kümmern, wie man einem Tasteninstrument sowas entlocken will. Die Vierteltonkomponisten anfang des 20ten Jahrhunderts haben dann halt zwei um einen Viertelton gegeneinander verstimmte Klaviere auf die Bühne gestellt, und Carlo Gesualdo, der in der Renaissance viel mit Enharmonik in reiner Stimmung arbeitete, hat sich Cembali mit kaum Bedienbaren Monstertastaturen zum Erzeugen der Nuancen bauen lassen. --Joachim Pense (d) 17:27, 5. Okt. 2009 (CEST)Beantworten
Bedarf = Umsatz / Stückzahlen ? Das (zu kaufen "von der Stange") gibt es - neben der üblichen temperierten Stimmung - nur als "Oriental Keyboard". Siehe z.B. http://www.musik-schmidt.de/de/Keyboards/Oriental-Keyboards
Ansonsten bleibt's beim "westlichen" Konstrukt "Halbtonschritte". Pitchbend war gedacht / angelegt zur Simulation von Saiten ziehen, Blasinstrumente in der Tonhöhe modulieren etc. , also für (i.d.R. monophone) Solo-Instrumente. -- NickNameX 09:24, 6. Okt. 2009 (CEST)Beantworten
Gequanteltes Tuning wie Vierteltöne muss man derzeit am Rechner machen und 2-kanalig ausgeben. Ich kenne aber nur einen, der das aktiv tut. Ich arbeite an einer Hardware, die das automatisert verarbeiten kann. Der allgemeinere Fall, andere Stimmungen zu verwenden - mit ebenfalls 12 Tönen - ist einfacher machbar - siehe mein Beitrag. Musicproducer 05:38, 22. Okt. 2009 (CEST)
Gesammelte Antwort zu einigen Beiträgen: Es gibt nicht nur MUTABOR, auch wenn es wohl das älteste solche Programm ist. Eine Sammlung für solche Software gibt es unter dem Lemma Mikrotuner. In den letzten 2 1/2 Jahren hat sich auch bezüglich des Computer-Einsatzes einiges getan. Ich habe mal den Querverweis gesetzt. Pitch bend unterstützt +/-8192tel einer Größe, die üblicherweise zwischen 1 und 12 Halbtönen gewählt werden kann (Standardwert: 2HT); viele Geräte interpretieren nur das erste Byte, also +/-64tel. Beim Einsatz von Pitch-Bend reduziert sich allerdings die Anzahl abspielbarer Töne pro Gerät u.U. drastisch. Autherdem setzen Hersteller (z.B. Kurzweil, getestet beim PC2R) interpolationsalgorithmen ein, was beim Mikrotuner-Einsatz hässlich klingt. Alternatv dazu gibt es MIDI Tuning (Specs gibts bei der MIDI-Organisation). (nicht signierter Beitrag von Keinstein (Diskussion | Beiträge) 22:05, 6. Aug. 2012 (CEST)) Beantworten
Das bedeutet ja nunmehr, daß ich gemäß dieser Abstufung auch kleinste Frequenzänderungen erzielen kann. Was aber ist die Basisfrequenz? Die ist für jeden Synthie anders! Nicht alle laufen auf 440Hz und nicht alle nutzen die gleichstufige Stimmung. Viele Synths z.B. der Virus und auch meiner sind umschaltbar auf andere Stimmungen und interpretieren die gleichen Noten anders. Klassisches Beispiel ist die reine Stimmung. Tonstudio96 (Diskussion) 03:03, 26. Nov. 2015 (CET)Beantworten
MIDI wurde für Musik in Halbtonschritten konzipiert, und den numerischen Notenwerten sind auch Notennamen zugeordnet. Die Stimmung ist MIDI aber absolut egal. Ich erinnere mich, dass man beim Korg M3R (und wahrscheinlich auch anderen Tonerzeugern) die Stimmung wählen konnte; entweder die übliche Temperierte Stimmung, eine der Reinen Stimmungen oder eine benutzerdefinierte Stimmung (bei der man die die Noten in Cent-Schritten einzeln einstellen konnte). Und natürlich konnte man auch einstellen, dass unterschiedliche Manuale (oder Teile von Manualen, "Keyboard-Split") gegenüber der Normalstimmung (egal ob temperiert, rein oder frei) verstimmt wurden. Der M3R war da recht einfach auf Vierteltonmusik einzustellen.
Und was wahrscheinlich auch schon mal gehört hat: Schlagzeug. Ja, jede einzelne Trommel ist gestimmt (und bei einigen Tonerzeugern kann man diese auch selbst verstimmen). Und da hängt alles davon ab, wie das Drumkit zusammengestellt ist. Als Beispiel: ein "c" auf dem Keyboard lässt die Snare ertönen - welche auf Dis gestimmt ist. Die nächsten Tasten (cis/des, d, dis) ergeben drei Toms, gestimmt auf C/A, Gis/F und C/A eine Oktave tiefer (jeweils Resonanzfell-/Schlagfell-Stimmung...ja, eine Tom kann zwei Töne gleichzeitig spielen). Viele Schlagzeuger stimmen auch einfach nach Gefühl, ohne sich an eine temperierte, reine oder was auch immer für eine Stimmung zu halten.
Der Grund, dass man den numerischen Notenwerten Notennamen zugeordnet hat, ist nicht, dass man MIDI-Anwendern ungewöhnliche Stimmungen oder Mikrotonalität vorenthalten wollte, sondern dass man den Standardanwendungsfall so benutzerfreundlich wie möglich haben wollte. Und der ist: Geräte auspacken, Klaviatur in den Expander stecken, dort "Klavier" einstellen...und dann möchte man doch bitte beim Druck auf "C" ein "C" hören. --Klaws (Diskussion) 19:39, 22. Apr. 2020 (CEST)Beantworten

"High Speed Midi" und "Ultra High Speed Midi"

[Quelltext bearbeiten]

Beim herumsurfen bin ich über diese Begriffe gestoßen. Teilweise war nur eine geringe Latenzzeit in einem Gerät gemeint. Anderes bezog sich direkt auf die Geschwindigkeit. zB auch im professionellen Orgelbau [1] --Franz (Fg68at) 16:10, 21. Mär. 2012 (CET)Beantworten

Überarbeitung

[Quelltext bearbeiten]

Hallo zusammen,

ich arbeite zur Zeit an einer Überarbeitung des Artikel.

Vielleicht finde ich Hilfe zu folgende Punkten:

  • Tabelle vervollständigen
  • Sprachlich überarbeiten
  • Tabellen mit den wichtigsten RPN- und NRPN-Controllern
  • genauere Erklärung von Systemnachrichten und Real-Time-Messages
  • Bebilderung überarbeiten

Gruß --Thornard, Diskussion, 09:25, 5. Jun. 2012 (CEST)Beantworten

?
Fehlt denn in den Tabellen noch etwas ?
Wie wär's mit einem Abgleich mit der Tabelle des englischen WIKI ?
MFG, NickNameX (Diskussion)
Es fehlen noch F1…F6, F9, FB und FD…FF.
Abgleich mit der englischen Wiki ist gut, aber ich hätte doch gern erst die Inhalte, die da sind, in einer akzeptablen Form. Die sprachliche Qualität ist aller unterste Schublade.
--Thornard, Diskussion, 10:30, 5. Jun. 2012 (CEST)Beantworten
Zu MIDI-Befehlen oberhalb F0 findet sich einiges hier, auf Seite 29:
http://www.liontraffic.de/files/text-midistandard.pdf
MfG, NickNameX (Diskussion) 12:53, 5. Jun. 2012 (CEST)Beantworten

Hallo, Leute. Ich möchte den Artikel einigermassen überarbeiten und in einigen Punkten erweitern. Ich sehe, dass euer Dialog hier sehr jung ist und wollte vorfühlen, ob wir uns irgendwie Abstimmen müssen/sollten, damit wir einander nicht in die Quere kommen. --RobTorgel (Diskussion) 11:26, 6. Jun. 2012 (CEST)Beantworten

Leg los. :-) Ich halte mich dann vorerst zurück. --Thornard, Diskussion, 15:36, 6. Jun. 2012 (CEST)Beantworten
Gut, ich lege. Ist aber ein ziemlicher Schinken, geht nicht auf einmal. --RobTorgel (Diskussion) 17:16, 6. Jun. 2012 (CEST)Beantworten
Konkret hab ich erstmal versucht, die Einleitungsdefinition abzutrennen, damit es kleinere Portionen werden. Ich überleg nur, ob ich nicht besser den ganzen Artikel erst in meinem Bereich aufbauen soll und nicht direkt im ANS werken. Wahrscheinlich besser und vermeidet inkonsistente Zwischenzustände im Artikel. Heut mach ich jedenfalls nix mehr. Gruß, bis dann --RobTorgel (Diskussion) 20:31, 6. Jun. 2012 (CEST)Beantworten
Wenn du den Artikel erst in deinem Bereich aufbaues bekommst du ihn nicht mehr eingebaut. Arbeite einfach und arbeite dich Schritt für Schritt durch. Ich habe gerade weiter Doppelungen entfernt und Absätze neu formuliert. Mache dich da mal keine Sorgen. Dein Einleitungssatz finde ich schon super. Gruß --Thornard, Diskussion, 21:37, 6. Jun. 2012 (CEST)Beantworten

Hallo Ron,

danke, dass du dich mit dem Artikel beschäftigst. Aber ich bitte dich, das du dich an die vorhandene Gliederung hältst und nicht alles neu schreibst. Wenn du eine andere Gliederung möchtest, dann solltest du die erst hier diskutieren. Bitte überarbeitet auch den neuen Abschnitt zum MIDI-Time-Code. Denn was ist ein 1/4-Frame-Advances? :-)

Gruß --Thornard, Diskussion, 21:30, 7. Jun. 2012 (CEST)Beantworten

Gliederung

[Quelltext bearbeiten]

Ich hab gern eine Gliederung, die vom Laien-->Fachmann abgestuft ist. Die Unterscheidung MIDI/AUDIO ist elementar und und für Laien nach wie vor oft ein Problem. Und mit der prinzipellen Funktionsweise dazu ist dann der Laie erstmal mit der grundlegen Kenntnis, was denn MIDI sei, versorgt. Erst danach würde ich in die Tiefe und ins Detail gehen wollen. Aber gut, Dein Artikel. Keine Angst, ich schreib' das Zeug kein zweites Mal rein. --RobTorgel (Diskussion) 07:37, 8. Jun. 2012 (CEST)Beantworten

Hallo Rob, das ist aber eigentlich eine Gute Idee. Für eine Oma-taugliche Version bin ich grundsätzlich auch zu haben. Auch ist das nicht mein Artikel. :-) Ich habe den vor einer Woche zum ersten mal gesehen. Ich habe eher im Bereich Orgel gearbeitet. Vielleicht ist mein Anspruch auch daher so hoch. :-) Ich bin über Aeolus (Software) an den Artikel geraten. Und MIDI hat leider sehr viele Mängel. Er ist ein Flickenteppich einzelner Autoren und vieles doppel und dreifach beschrieben. Ich habe bisher versucht möglichst zu kürzen und dinge auszuformulieren.
Ich glaube aber nicht, dass zur Einführung der genaue Aufbau des Protokolls nötig ist und wie die einzelnen Dinge intern funktionieren. Eigentlich sollten die Absätze "Funktionsweise" und "Einsatzbereiche" für eine Einführung ausreichen. Auch sind einige Überschriften verlinkt (siehe auch das Kommenter auf meiner Diskussionsseite). Lasse dich nicht entmutigen. Versuche die Absätze "Funktionsweise" und "Einsatzbereiche" mal omatauglich zu machen ohne Fachbegriffe, englische Begriffe oder einzelheiten zu Technik und Protokoll. Lieben Gruß --Thornard, Diskussion, 08:50, 8. Jun. 2012 (CEST)Beantworten

Synchronisation

[Quelltext bearbeiten]

Ich habe den Abschnitt erweitert. Ich bin nur nicht sicher, ob das in dieser Form (und das ist nur oberflächlich) nicht überladen ist. Ich musste den Schrott ja mal ausprogrammieren, aber für Otto Normal ist das doch im Detail unisant, der klickt mit der Maus auf Clock oder MTC und aus. Meinungen ? --RobTorgel (Diskussion) 14:37, 8. Jun. 2012 (CEST)Beantworten

Weitere Details

[Quelltext bearbeiten]

Die spezial SysEx-es mit Texten, Copyright, CuePoints und was weiss ich, brauchen wir das ? --RobTorgel (Diskussion) 14:37, 8. Jun. 2012 (CEST)Beantworten

Vor- und Nachteile

[Quelltext bearbeiten]
  • Wahrscheinlich reine Geschmacksache: Dank MIDI vielleicht Durch MIDI ?
  • synthetisiert wird als eines der ersten das Schlagzeug (weil das dann gleichzeitig den Click-Track darstellt). Aber ist das für den Laien interessant ?

--RobTorgel (Diskussion) 10:57, 11. Jul. 2012 (CEST)Beantworten

Bug in digitaler Darstellung

[Quelltext bearbeiten]

Im Abschnitt "Nachrichtentypen" sind hexadezimale Zahlen dargestellt, die sich auf ein einzelnes Byte (=8 Bit) [hier: Datenbyte] beziehen. Daher ist die Notation "...8016 bis FF16..." (die Ziffern '16' jeweils tiefgestellt) falsch, da solch eine Indikation sich auf 16-bit-Zahlen bezieht. Richtig muss es heissen: "...808 bis FF8...", wobei die jeweils letzte 8 der beiden Zahlen tiefzustellen ist. --87.161.87.165 19:57, 10. Nov. 2012 (CET)Beantworten

Ich glaube, die tiefgestellte 16 soll tatsächlich nicht auf 16-Bit-Zahlen, sondern auf das Hexadezimalsystem hindeuten. --84.60.198.71 23:24, 6. Dez. 2012 (CET)Beantworten

Latenzproblem wird nicht korrekt dargestellt

[Quelltext bearbeiten]

Der Abschnitt "Latenz" ist sachlich wie fachlich schlichtweg falsch!

Eine Note benötigt für das Auslösen DREI 8-Bit-Byte, d.h das sind demnach 3 x 8 x 32 µs = 768µs. Knapp 0,8ms für eine einzige Note! Spielt ein Keyboarder beispielsweise 8 Noten, ergibt sich schon ein Wert von über 6ms.

Wo kommt die Acht her? Geht es hier nicht um die serielle Übertragung auf der Leitung? Also, nochmal richtig nachgerechnet sind es 960µs für die erste Note, dann 640µs für jede weitere. Das Ergebnis ist dann unter 6ms, nicht über. --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)Beantworten

Kommen beispielsweise Controllerdaten hinzu, erhöht sich der Wert signifikant. Und das gilt schon für eine einzige Schnittstelle. Werden beispielsweise mehrere Instrumente per Midi übertragen wie im SMF-Format, überschreitet die Midi-Latenz sehr schnell die 11ms-Schwelle, die gemeinhin als Hörschwelle für Zeitverzögerungen wahrgenommen wird. Wobei gute Musiker deutlich unter diesem Wert von 11ms Zeitverzögerungen wahrnehmen und bewußt spielen können.

Auch ist der Übertragungsweg entscheidend: Bei Übertragung über eine Firewireschnittstelle für eine extere Midi-Ansteuerung hat ein Test aus der Fachzeitschrift Keys (Januarausgabe 2006) eine durchschnittliche Latenz von 18ms ergeben. Das sind musikalisch sehr relevante Lantenzzeiten.

Bei der internen Midi-Übertragung auf einen Software-Synthesizer treten zwar Verzögerungseffekte durch eine Schnittstelle nicht bzw. kaum auf, dafür aber relevante Latenzzeiten durch die Verwendung der Soundkarte (und ggf. einer DAW-Software mit Plugins), ohne die es ja nicht möglich ist, einen Ton zu hören.

Von daher müssen auch diese Verzögerung mit eingerechnet bzw. im Artikel erwähnt werden, da das Midi-Protokoll ja bei zeitkritischen Anwendungen eingesetzt wird. Und genau das sind Probleme, die bei vielen - zumindest professionellen - Musikproduktionen auftreten. Und das betrifft keineswegs nur die exzessive Verwendung von System-Exclusiv-Daten. Von daher kann man das Problem nicht so einfach nur auf den reinen Midi-Bereich beschränken. (nicht signierter Beitrag von 79.217.166.123 (Diskussion) 10:54, 4. Jan. 2013 (CET))Beantworten

Naja, Kollege, falsch ist da schon deswegen nix, weil keine konkrete Latenzzahlen angegeben sind. Das geht auch schlecht, denn es hängt vom Material ab, ob man 2 oder 3 Bytes f. Note-On/Off benötigt. (Deine 8 Keyboardnoten haben nur beim ersten Ton (wenn) 3 Bytes, sonst 2).
Bei den Wave-Samplern ist da auch nicht ganz so. Die arbeiten ja nicht wie der Mediaplayer durch Buffer-füllen-und-dann-zum-DA, sonder legen die Dig-Daten direkt an den DA. (Anders bei mixed Audio/Midi wo du tatsächlich das pre-load-Offset einstellen kannst bzw. musst).
Das grindige interne/externe Software Latenzen produzieren kann, ist klar, aber darauf kannst du im MIDI Artikel nicht eingehen. --RobTorgel (Diskussion) 11:33, 4. Jan. 2013 (CET)Beantworten

Na gut, dann nehmen wir den Abschnitt mal Satz für Satz unter die Lupe: "Die Geschwindigkeit der MIDI-Schnittstelle ist vom technischen Standpunkt überholt, was in der Praxis jedoch selten eine Rolle spielt."

Der erste Teil des Satzes ist völlig korrekt. Der zweite eine undefinierte Aussage, denn

a) bei WEM spielt in der Praxis die Midi-Geschwindigkeit keine Rolle? Bei Profis sehr wohl - sowohl im Studio als auch Live. Oder ist der Laie, der womöglich ein Saxofon von einer Gitarre nicht unterscheiden kann, die Referenz?

b) es ist abhängig vom angesteuerten Sound. Für langsam anschwellende Streicher ist die Midi-Latenz definitiv unerheblich. Bei Drums und Percussionsinstrumenten oder einem funky Clavinet hingegen sehr wohl.

c) es ist abhängig vom Musikstil. Sicher benötigen percussive Musikstile wie Techno oder Hip Hop eine genaue zeitliche Übertragung, wohingegen vielleicht Esoterik-Entspannungsmusik die deutlich weniger benötigt.

d) es abhängig ist von der Anzahl der Noten/Daten und der Anzahl der Midi-Kanäle. Wie du schon richtig festgestellt hast, werden drei Bytes für die erste und zwei für die folgenden Note-On-Befehle benötigt, aber nur, WENN nicht auf einem anderen Kanal gleichzeitig Daten über dieselbe Schnittstelle übertragen werden.

Hier ergibt sich die Problematik, daß die Midi-Latenz jedesmal schwankt und deshalb - zumindest beim Live-Spielen - nicht ausgeglichen werden kann. Das spielt aber durchaus eine ganz große Rolle, wenn ein Keyboarder mehrere Soundmodule gleichzeitig ansteuert, die über eine einzige Schnittstelle vom Masterkeyboard aus auf verschiedenen Midi-Kanälen angesteuert werden.

Beispielrechnung: 1 Masterkeyboard, das vier Klangerzeuger auf vier verschiedenen Midi-Kanälen ansteuert, dazwischen ist ein Midi-Splitter geschaltet oder die Klangerzeuger sind per Midi-Thru verbunden, was wir mal nicht in die Rechnung mit einbeziehen wollen. (Abgesehen davon, daß nicht mehr als drei Klangerzeuger auf diese Weise verschaltet werden sollten...)

Die Anzahl an Geräten, die man per MIDI-Thru hintereinander hängen kann, hängt davon ab, wie viel Mühe sich der Hersteller bei der Konstruktion der Thru-Schaltung gegeben hat. Die Verzögerungen durch den Treiber liegen im Bereich unter 25ns und sind vernachlässigbar gegenüber der Verzögerungen durch den Optokoppler. Im Idealfall sind TPLH und TPHL des Optokopplers gleich und es treten keine Signalverzerrungen auf und man kann mehrere hundert Geräte auf diese Art anschließen, bevor man etwas merkt (TPLH und TPHL < 2µs). Problematisch wird es, wenn der Hersteller seine Hausaufgaben nicht gemacht hat und TPLH von TPHL abweicht. Beispiel: der Hersteller hat einen falschen Widerstand gewählt und nun ist TPHL 0,6µs und TPLH 1,5µs - eine Differenz von 0,9µs. Spätestens wenn man 18 dieser Geräte hintereinander schaltet, wird das letze Gerät garantiert nichts mehr verstehen. Bei den neun Geräten davor kann es zu Problemen kommen. Die ersten acht Geräte in der Kette ist das Signal noch verständlich.
Viel schwerwiegender ist aber die Gefahr, dass eins der MIDI-Kabel defekt ist oder eine DIN-Steckverbindungen versagt. Bevor man auf die lustige Idee kommt, sein MIDI-Signal auf der Bühne 18 MIDI-Kabeln mit 36 DIN-Steckern anzuvertrauen, sollte man in einen aktiven Verteiler investieren. Der braucht auch keinen Optokoppler und die Elektronikkomponenten für einen Verteiler mit 18 Ausgängen kostet unter 5€ (das 19"-Gehäuse und die 19 DIN-Buchsen bringen den Preis dann allerdings auf über 50€). --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)Beantworten

Der Musiker drückt einen Ton, das sind dann: 4 Midikanäle 3 Bytes für Note-On-Befehle Also: 4 x 3 x 8 x 32 µs =3,072ms! Für EINE EINZIGE NOTE!!!

Stacking benötigt, unabhängig von der Anzahl der angeschlossenen Tonerzeuger, einen einzigen Kanal. Und wieder die komische Acht...ich komme wieder auf 0,96ms für die "einzige Note" (oder 0,64ms, falls es doch noch nicht die allererste Note ist, die der Musiker spielt). --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)Beantworten

Nun drückt der Musiker mal 6 oder gar 8 Töne - da läßt der Schrammel-Gitarrist grüßen, das hört auch der Laie, daß die Töne nicht gleichzeitig von den Klangerzeugern abgegeben werden. Die Tasten müssen dazu nicht einmal völlig gleichzeitig vom Musiker gedrückt werden, auch so kommt es zum Midi-Stau.

5,12ms für die acht Töne. Nicht schlecht, wenn man mal davon ausgeht, dass auch ein guter Pianist gerade mal eine Abweichung von 7ms zwischen erster Note und achter Note erreicht. Aber immerhin wurde ich somit aufgeklärt, dass Liu Shikun kein Schimmel-, sondern ein Schrammel-Piano spielt. Oh weh! --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)Beantworten

Controllerdaten und insbesondere Systemexclusiv-Daten sind auch im Live-Betrieb - je nach Gerätschaft - ein echtes, gravierendes Problem. Ein Beispiel wäre hier, über einen Masterkeyboard-Controller Filter oder Effekte in einem Klangerzeuger anzusteuern. Exzessiv müssen die Daten gar nicht eingesetzt werden, denn es liegt ja in der Natur des Protokolls, daß diese Daten umfänglich sind.

Im Studio ebenfalls: Per Systemexclusiv-Daten werden Sounds im Klangerzeuger verändert. Am besten wird dazu dann noch ein rhythmisches Muster per Controller auf die Lautstärke angewandt. Es treten Verzögerungen auf, die man deutlich hört.

Das ist so nicht richtig. Gerade bei Studionutzung im offline- Mode bekommt man das Latenzproblem bestens und rückstandsfrei in den Griff, wenn man es richtig macht. Ein Problem besteht bei live und dann deshalb, weil unterschiedliche Noten zu unterschiedlichen Latenzen führen.

Diese Beispiele sind keineswegs abgedrehte theoretische Beispielfälle, sondern ganz typische Probleme, die man entweder im Live-Betrieb so gut es geht ignoriert oder im Studio anders löst, indem man Sequenzen dann doch als Audio-Datei aufzeichnet und passend macht.

Damit hat sich der Satz sicher auch erledigt: "Dieser Nachteil fällt nur in wenigen Fällen bei der Musikproduktion auf."

"Werden MIDI-Daten live eingespielt, reagiert das Gerät in Echtzeit mit der für die MIDI-Datenstrecke typischen Verzögerung im Microsekundenbereich." Wie ich oben vorgerechnet habe, sind das Millisekunden, nicht Mikrosekunden. Eine typische Verzögerung gibt es ja gar nicht, sondern typisch für Midi sind die schwankenden Latenzen.

"Eine hörbare, durch MIDI verursachte Verzögerung tritt normalerweise auf, wenn zuviele MIDI Daten auf einmal übertragen werden sollen, und normalerweise nur bei externen Klangerzeugern (also nicht bei der Nutzung von Plugins), wie in den folgenden Beispielszenarien:" Falsch. Wer beispielsweise im Live-Betrieb Plug-Ins ansteuert, benutzt dafür Controller - anders geht es ja nicht! Der Controller hat in der Regel nur einen Midi-Ausgang, sofern er nicht über eine andere Schnittstelle (USB usw.) an den Rechner, der die Plug-Ins zur Verfügung stellt, ansteuert. Und da treten dann andere Probleme auf...

"1. In Verbindung mit der exzessiven Verwendung von System Exclusive Daten: Dieser Typ von Daten belegt weit mehr als die typischen drei Bytes (1 Statusbyte und 2 Databytes)." Wie ich schon schrieb, können ebenfalls Controller ein Problem sein. Und die Anzahl der Midi-Kanäle, die über eine Schnittstelle übertragen werden. Ein gutes Beispiel hierfür sind die eiernden "Japaner-Bands", also die mit Midi-Files gefütterten Tanzmusikerautomaten.

"2. Bei der Verkettung mehrerer Hardware-Klangerzeuger über software-gepufferte MIDI-Thru-Verbindungen: Diese Verzögerung wird durch das Kopieren der am MIDI In eintreffenden Daten auf den MIDI Thru - Port verursacht und ist somit eher ein herstellerspezifisches als ein MIDI - typisches Problem." Die Midi-Thru-Schnittstelle ist eben so definiert, daß sie durch das Kopieren der eingehenden Daten der Midi-In-Schnittstelle versorgt wird. Das ist also ein System-Problem dieser Schnittstelle - also Midi - an sich! Daß das durch eine schlampige Arbeit diverser Hersteller noch verstärkt wird, ist eine ganz andere Baustelle - aber gut, daß das immerhin hier erwähnt wird.

Daß der Abschnitt im Artikel Müll ist, sollte nun wohl klar sein. Wer es immer noch nicht glaubt, sollte unbedingt einen Guitar-to-Midi-Converter antesten...live - bitte! Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.170.34 (Diskussion) 12:27, 5. Jan. 2013 (CET))Beantworten

Gut, ich nehme an, du wirst den Abschnitt aus dem Müllzustand befreien. Bedenke nur: Keine Brandreden, keine Polemik.

Btw: den git-midi-converter lass lieber aus, der hat kein midi-problem, sondern ein problem mit der Conversion, wie du wohl weisst --RobTorgel (Diskussion) 13:01, 5. Jan. 2013 (CET)Beantworten

Das überlasse ich lieber Leuten, die das wikipediakonform darstellen können. Das Problem habe ich aufgezeigt.

Der Guitar-to-Midi-Converter hat nicht nur Probleme mit der Wandelung, da hast du recht, sondern vor allem mit der Fülle an Controller - besser: Pitch-Bend-Daten. Dünnst du sie aus, bekommst du kein sauberes Bending mehr hin.

Gut, daß du das Wandelungs-Problem ansprichst. Dasselbe gilt natürlich auch für Drum-Triggering, wobei auch hier Midi_Latenzen wirklich zum Problem werden können, wenn über eine Midi Leitung mehrere Sounds angesteuert bzw. gestackt werden.

Unterschlagen wollen wir hierbei auch nicht, daß ebenfalls die Klangerzeuger für eine hörbare Verzögerung beitragen können.

Das Problem mit dem Midi-Timing läßt sich aber auch recht eindrucksvoll zeigen, indem man Blockakkorde live (!!!) einspielt und per Midi und Audio gleichzeitig aufnimmt und dann abspielt. Da hört man dann deutlich einen Flanging-Effekt, also einen Kammfiltereffekt. Wenn es blöde läuft, verändert sich mit jedem Abspielen dieser Effekt. Woran das genau liegt, weiß ich nicht, das kann auch mit an der Recording-Software liegen, ggf. an Interfaces (Stichwort Steinberg LTB-Technologie oder Motu MTS-Technologie) oder auch an den Klangerzeugern.

Auch das gehört eigentlich in den ganzen Komplex der Midi-Latenz-Problematik, denn Midi-Latenz ist ja kein isoliertes Problem, sondern vor allen Dingen ein Systematisches.

Ich denke, es ist auch Aufgabe eines Nachschlagewerkes, den Komplex als solches in GROBEN Umrissen darzustellen. Sicher braucht man dazu nicht darauf eingehen, Probleme beim Triggering zu erklären, weshalb Klangerzeuger Verzögerungen auslösen können oder Softwareprobleme detailiert auszubreiten.

Aber erwähnen, daß diese Probleme mit eine Rolle spielen, muß man wohl. Schließlich kann man ja Midi nicht rein technisch außerhalb dessen befördern, wozu es ja eigentlich erfunden wurde: Als Hilfsmittel für Musikgeräte, und der Name Musik steht ja schon im Protokollnamen. Und da Musik zeitkritisch ist, kann man das nicht weglassen. Das wäre ein Auto ohne Räder.

Bleibt im Ganzen auch noch zu erwähnen, daß auch Timecode für Verzögerungen verantwortlich sein kann, wenn ihn ein Klangerzeuger für einen synchronisierten Sound (z.b. wenn ein Filter sich im Takt verändern soll) benötigt.

Da gibt es dann noch Ergänzungen für den Abschnitt "Reduzierung der Latenz":

- 4. Wird MTC oder Midi-Clock für eine Synchronisation mit anderen Gerätschaften verwendet, dürfen für eine gute Synchronisation auf diesem Midi-Port keine anderen Daten gesendet werden.

- 5. Verwenden von professionellen Midi-Interfaces für die Anbindung von externen Masterkeyboards und Klangerzeugern. Herstellerspezifische Lösungen können Latenzen verringern.

- 6. Einzelne Instrumente "freezen", d.h. die Midi-Instrumente auf eine Audio-Spur überspielen.

Bei Punkt 2 ist kritisch anzumerken, daß das Vorziehen durchaus das Timing verändern kann. Also darf man nur Daten ändern, die nicht für das Timing relevant sind. Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.189.244 (Diskussion) 09:26, 6. Jan. 2013 (CET))Beantworten

Tja, Kollege, wir sollen hier andererseits kein How-To verfassen. Im Detail brauchst du mich von Wenigem zu überzeugen, ich arbeite seit '85 mit MIDI und kenn die Vor- und Nachteile ganz gut. Guitar-to-Midi ist für mich kein Thema, das ist nice, wenn du nur Gitarre kannst und willst aber die Streicher einspielen. Das wird aber so oder so nix, wenn man mich fragt.
Es bleibt in der Summe, dass MIDI ein inzwischen ungerechtfertigtes Artefakt der ursprünglichen Möglichkeiten ist, das durch die Verbreitung aber offenbar nicht umzubringen ist.
Wie gesagt, ein Vademecum für prof. Studioarbeit soll und kann es aber nicht werden. --RobTorgel (Diskussion) 09:54, 6. Jan. 2013 (CET)Beantworten

Gut, dann soll das jemand so umformulieren, daß es kein How-to ist, das dürfte doch für eingefleischte Wikipedianer ein Leichtes sein. Ich schreibe zu diesem Themen hier gar nichts in Artikel, weil der Jargon, den ich benutze, von nicht aus der Szene kommenden ganz schnell mißverstanden werden. Löschorgien dürfen andere vorbereiten, bitte ohne mich, mir geht es um den Inhalt und nicht darum, wann welches Wort weshalb wie verdreht oder gegen eine der 349560807 Wikipedia-Normen möglicherweise verstossen kann. Deshalb dikutiere ich.

Studioarbeit kann man sowieso nicht in Büchern lernen, abgesehen davon, daß die meisten, die ein "Studio" betreiben, sowieso keine Ahnung und keine Ohren haben. Irgendwer aber muß ja auch den Schrott kaufen, den die MI in Massen herstellt...ist aber nicht das Thema hier...

Stichwort "Guitar-to-Midi": Da ist ebenfalls ein sehr mißverständlicher Satz im Artikel unter "Einsatzbereiche": "Beim Spielen einer Gitarre, deren Töne in MIDI-Daten gewandelt wurden, erklingt aus dem angeschlossenen Klangerzeuger anstatt des Gitarrenklangs ein anderer gewünschter Sound."

Das ist natürlich hirnverbrannter Schwachsinn. Seit wann erklingen in einem per Midi angesteuerten Gerät Gitarrenklänge nur deshalb, weil man das Gerät mit einer Gitarre ansteuert? Und die Gitarre selbst klingt dann nicht mehr wie eine Gitarre - oder wie ist das zu verstehen? Oder ist sie gar stumm geworden, die Gitarre?? Oder darf kein Gitarrenverstärker eingesetzt werden???

Der nächste Satz: "Der Gitarrist wird so zum Streicher, Pianisten oder Blechbläser, wobei die Besonderheiten in der Spielweise einer Gitarre in Verbindung mit dem eingestellten Zielsound bisweilen recht ungewöhnliche Effekte hervorrufen."

O Graus! Was für falsche Vorstellungen! Natürlich wird kein Gitarrist zum Streicher, nur weil er per Midi einen Streichersound ansteuert. Einen Autoreifen kann ich auch midifizieren, drum ist der noch lange kein Streicher, nur weil er dann einen Streichersound ansteuert. Das ist wirklich unterstes Niveau. Und ob der Wikipedia-konform ist, wage ich auch zu bezweifeln.

Ganz kurz: Gitarre: 6 Saiten, 6 Töne. Pianist: 10 Finger, damit sind auch mal 11 oder gar 12 Töne spilebar. Clusterklänge: Wie macht die bitte der Midi-Gitarrist? Mag sich jemand mal darum kümmern...

Bei den klassischen "Clusterklängen" stehen die einzelnen Noten in festen Verhältnissen zueinander; da reicht es also aus, wenn nur der Basisnotenwert übertragen wird (640µs). Das Problem hatte man übrigens schon bei den Analogsynthesizern gelöst - das CV-Interface konnte immer nur einen einzigen Tastendruck zu einer Zeit übertragen. Ich erinnere mich an achtstimmige Clusterklänge, mikrotonal (also keine langweiligen Halbtonschritte), sowohl über das analoge CV-Interface wie auch über MIDI (640µs). Und der berüchtigte "128-Noten-Cluster" lässt sich auch innerhalb von 640µs übertragen...aber da würde ich lieber den 132-Noten-Cluster wählen, dauert genau so lang und erscheint mir musikalisch sinnvoller. Und der klassische Clusterklang ist ja die Hängetom; die spielt bei einem Anschlag auch immer zwei Töne gleichzeitig...das ist jetzt nichts aufregendes. --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)Beantworten

Im Artikel wird mir auch das, was du jetzt angesprochen hast, viel zu wenig dargestellt: Der heutige Einsatz von Midi. Nämlich als Degradierung zum reinen Steuerprotokoll für Lichtpulte, Mischpultcontroller und deren Pedants in der Recordingsoftware. Mit einem Musikinstrument habe diese Dinge - in der Regel - gar nichts zu tun (Musical Instrument Digital Interface).

So, ich glaube, das reicht jetzt auch völlig, um den Artikel zu korrigieren. Grüße! Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.189.244 (Diskussion) 14:08, 6. Jan. 2013 (CET))Beantworten


Gut. Btw: Du solltest bei deinen Rechenbeispielen daran denken, dass 1 Byte 10 Bit benötigt.
Gewissermaßen private Frage: Welche Anwendung von MIDI ist dein Hauptgebiet ? Live ? Studio ? Stil ? --RobTorgel (Diskussion) 18:01, 6. Jan. 2013 (CET)Beantworten

10 bit? Wußte ich nicht, obwohl ich jahrelang die Daten manuell editiert habe. Wo sind die 2 bit drin? Die sieht man nämlich nicht beim editieren, nirgends. Dann wird es ja noch schlimmer mit der berechneten Timinglatenz... - gibt es da noch weitere versteckte Hürden bei der Berechnung? Kläre mich mal bitte auf, wäre echt nett.

Es gibt keine "versteckten Hürden" bei der Berechnung; MIDI nutzt eine asynchrone serielle Übertragung ("8N1") - genau wie RS-232, nur mit einer Stromschleife an Stelle von Spannungspegeln. Beim Bearbeiten von MIDI-Daten sieht man natürlich nur die Nutzdaten - eventuell sogar noch verlängert (also ohne running status-Optimierung), um den unbedarften Anwender die Arbeit zu erleichtern. --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)Beantworten

Gewissermaßen Privat: Habe fast alles in den Jahren gemacht. Du fragst einen Musiker nach einem Stil, der nur gute und schlechte Musik kennt und spielen kann? :) Weswegen Midi kaum mehr im Einsatz ist, nur noch bei Klassikarrangements oder wenn es wirklich elektronisch wird. Heute wird es aber immer mehr akustisch bei mir. Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.189.244 (Diskussion) 00:09, 7. Jan. 2013 (CET))Beantworten

Naja, MIDI ist ja eine Asynchron-Übertragung in der Version: 1 Start-Bit, 8 Daten-Bit, 1 Stop-Bit. Diese "neben"-bits sind rein technisch, die siehst du natürlich nirgends.

Vielleicht noch ein Detail:
  • MIDI-Thru ist meistens schon direkt elektrisch in-out, d.h. diese Latenz ist im nano-Bereich. Also weniger dramatisch.
  • Aber viele Kisten haben nur MIDI-In / MIDI-Out. Bei MIDI-Out ist aber vereinbart, dass nur die Daten anderer Kanäle weitergeleitet werden, um das aber festzustellen, muss ein komplettes Byte erst eingelesen werden, d.h. jedes Geräte in der Kette erzeugt eine Latenz von einem Byte, also 0,320 mS (Bei Soft-Thru wäre das das Gleiche).

Stilfrage: ROFL, du wärst der erste ernsthafte Musiker gewesen, der sich selber in eine Lade steckt *g*. --RobTorgel (Diskussion) 07:36, 7. Jan. 2013 (CET)Beantworten

CE-Kennzeichnung

[Quelltext bearbeiten]

Im Abschnitt Nachrichtentypen ist die Grafik Datei:NoteNamesFrequenciesAndMidiNumbers.svg. Warum ist in der Tabelle das "C" immer neben der E-Taste? -- Pemu (Diskussion) 12:53, 25. Jun. 2013 (CEST)Beantworten

Hat sich erledigt, war etwas blind. -- Pemu (Diskussion) 12:56, 25. Jun. 2013 (CEST)Beantworten

mid in wiki

[Quelltext bearbeiten]

wiki sollte dringend an Stellen, wo man intuitiv sucht, dem dummen Leser verraten, wie man dies auch in wiki verwendete Format abspielen kann, z.B. in diesem Artikel. Danke 2003:40:EF3D:A8D0:DD3E:7434:15BD:29BB 12:20, 11. Okt. 2016 (CEST)Beantworten

Zahlenformat Controller Angaben

[Quelltext bearbeiten]

Finde es verwirrent in der Tabelle gebräuchlicher Controller die Controller Nummer in Hex-Notation zu finden aber im Flißetext darüber die Angaben jeweils dezimal codiert stehen zu haben. Sollte das nicht auf Hex vereinheitlicht werden?--79.213.163.106 11:09, 5. Feb. 2017 (CET)Beantworten

Die Subskripte werden überhaupt inkonsistent verwendet:
  • Im Abschnitt Nachrichtentypen steht "8016 bis FF16 und die Datenbytes zwischen 0016 und 7F16" - hier sind die Subskripte die Basis.
  • Im Abschnitt Controller werden die Subskripte dann plötzlich für den Dezimalwert verwendet, z.B. "000", "011", "2032".
Was "sollen wir denn wollen?"
--Haraldmmueller (Diskussion) 13:11, 22. Apr. 2018 (CEST)Beantworten

class compliant

[Quelltext bearbeiten]

Wäre nicht ein Hinweis auf "class compliant", also das Nutzen von Midi-Interfaces automatisch ohne Treiber, sinnvoll?

Aktualität

[Quelltext bearbeiten]

Der Artikel liest sich wie aus den 80er Jahren, ist unglaublich unübersichtlich und mischt mehrere Themen, die hier nicht her gehören. Alles über Expander und Soundmodule ist keine Frage von MIDI. Sachen über C-64 usw. gehören in einen Abschnitt "Geschichte" (auch wenn es ja sicher einzelne Menschen geben mag, die heute noch damit arbeiten...), ebenso wie ein guter Teil von "Einsatzbereiche". An vielen Stellen gibt es Kommentare und Interpretationen, die allenfalls unter "Kritik" Platz finden könnten. Dort finden sich Aussagen, die nach Kritik von elektronischer Instrumenten der 80er oder 90er klingt, z.T. wissenschaftlich falsch sind und weder mit MIDI selbst noch etwas mit den heutigen Möglichkeiten elektronischer Instrumente zu tun haben.

Die Schnittstelle ist heute bei digitalen und analogen Synthesizern vieler Art nach wie vor essentiell für Live- und Studio-Setups. Der Artikel erweckt an vielen Stellen den Eindruck, als wenn das aus einer längst vergangenen Zeit wäre.

Es fehlt z.B.:

  • 14bit MIDI Controller Daten
  • MPE (MIDI Polyphonic Expression) [2]
  • Brandneu (August 2018): Offizielle Spezifikation der (lange vorhandenen) 3,5mm Klinken-Verbindung [3]
  • MIDI Capability Inquiry (MIDI-CI) [4]
  • USB class compliant MIDI ist heute Standard (da gibt es eben gerade keine Treiber der Hersteller!)

Zetano (Diskussion) 13:12, 28. Aug. 2018 (CEST)Beantworten

kar und mid

[Quelltext bearbeiten]

Meines Wissens haben KAR-Files aber auch noch Text mit drin. Wird der dann überlesen, wenn ich versuche, das in MIDI zu laden? (nicht signierter Beitrag von 2A01:598:9082:F070:3813:2F8A:64EE:93B2 (Diskussion) 16:32, 21. Jul. 2020 (CEST))Beantworten

Auch MID-Files können Text drinhaben, mit dem Meta-Event FF 05. Der wird nicht beim Laden, sondern beim Abspielen überlesen, es sei denn, Deine Software "macht was damit". Das tut z.B. Karaoke-Software; oder Notenprogramme, die MIDI einlesen und den Text in die Partitur übernehmen. KAR-Files und MID-Files sind exakt dasselbe. --Haraldmmueller (Diskussion) 22:14, 21. Jul. 2020 (CEST)Beantworten

MIDI-Controller

[Quelltext bearbeiten]

Man sollte eventuell mal ein neues Bild eines aktuellen Controllers einsetzen, weil das inzwischen die meist benutzte Technik ist. Gemeint ist ein USB Controller, z.B. ein solcher von AKAI oder Novatation. Leider habe ich in der Commons kein Bild gefunden. 80.138.175.84 02:19, 1. Okt. 2020 (CEST)Beantworten

Systematik und Lemma MIDI - MIDI-Controller - Masterkeyboard

[Quelltext bearbeiten]

Mein Verständnis war eigentlich immer, dass (so wie in der englischen Wikipedia dargestellt) MIDI_controller|dargestellt]], dass MIDI-Controller der Oberbegriff ist alle Geräte, die MIDI-Daten erzeugen. Midi-Gitarre, Midi-Wind-Conroller, Drehregler, Drumpads, Pedale, Fussschalter usw. sind sozusagen alle Midi-Controller mit verschiedenen Daten die geschickt werden. Hier scheint das Verständnis anders zu sein, d.h. Geräte, die eine Tonhöheninformation senden, werden nicht MIDI-Controller genannt? Und das reine Masterkeyboard wäre dann kein MIDI-Controller? öst (Diskussion) 14:25, 12. Okt. 2020 (CEST)Beantworten

Woraus hast du das geschlussfolgert? Das Wort MIDI-Controller wird praktisch für 2 Dinge verwendet: Die Steuerinformation (wobei es "Controller-Wert" heissen müsste) und die Geräte, die diese senden.Tonstudio96 (Diskussion) 03:46, 6. Dez. 2020 (CET)Beantworten

Running Status nur nebenbei erwähnt...?

[Quelltext bearbeiten]

im Artikel wird der Running Status leider nur an zwei Stellen "nebenbei" erwähnt - das halte ich für einen großen Fehler - immerhin ermöglicht (er) es größere (gleiche) Daten um 1/3 zu reduzieren... Wem der Begriff nicht geläufig ist, findet ihn im Zusammenhang mit MIDI womöglich gar nicht... --EliasOrgel (Diskussion) 15:04, 4. Nov. 2024 (CET)Beantworten