Diskussion:Active Pixel Sensor/Archiv

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

CIS-Scanner

Arbeiten CIS-Scanner nicht mit CMOS-Sensoren? Leider steht davon nichts in Wikipedia, weder beim Artikel Contact Image Sensor noch hier... (nicht signierter Beitrag von 88.64.54.58 (Diskussion) 01:42, 9. Jan. 2007 (CET))

Aus meiner Sicht kann man einen CIS mit einer CMOS oder einer CCD Zeile machen. CIS ist nach der Definition eine Scanner-Art und ist nicht an einem Sensor gebunden. --Thierry Gschwind 08:39, 9. Jan. 2007 (CET)

unterschied zu CCD?

Was ist eigentlich der Unterschied zwischen einem CCD-Sensor und einem CMOS-Sensor? Wäre toll, wenn man das auch im Artikel herausstreichen könnte. --Thire 16:57, 17. Aug 2005 (CEST)

Hat sich geklärt. Danke! --Thire 23:24, 3. Sep 2005 (CEST)

Kann vielleicht jemand diesen Satz präzisieren: "mit entsprechende Pixel kann der Sensor gleichzeitig belichtet und ausgelesen werden."? Den versteh ich nämlich nicht... --Smurftrooper 17:49, 8. Mär 2006 (CET)

Ich arbeite in der Branche. Also es gibt verschiedene Pixelarchitekturen für CMOS Sensoren, mit 3,4,5 oder 6 Transistoren. Ja nach Architektur lässt sich das selbe Pixel gleichzeitig belichten und auslesen, wodourch viel höhere Bildraten erreicht werden können, das ist bei CDD bedingt möglich. --Thierry Gschwind 08:09, 9. Mär 2006 (CET)
Schön wenn Du in der Branche arbeitest. Vielleicht kannst Du dann bei folgenden Fragen helfen:
Sehr hohe Bildraten im Vergleich zu einem CCD mit selber Grösse
mit Größe ist die Abmessung des Sensors in cm oder seine Pixelzahl (komplett oder pro Zeile?) gemeint? Sollte auf jeden Fall präzisiert werden. --jailbird 13:56, 9. Mär 2006 (CET)
Ich meine damit die gleich Auslösung (also gleiche Anzahl Pixel), dies geschieht eben die erwähnten Parrale Auslese, 2,4,8,10 Pixel werden gelichzeitig ausgelesen (nicht signierter Beitrag von Thierry Gschwind (Diskussion | Beiträge) 14:04, 9. Mär. 2006 (CET))
andere Pixeltopologien (Bienenwaben) möglich (Hinweis: Fujifilm's Super-CCD-Sensor verwendet wabenförmige Pixel
Wie jetzt? Wenn die Möglichkeit der Wabenstruktur ein Vorteil der CMOS-Sensoren ist, wie kann dann Fujis Super-CCD auch Waben verwenden? --jailbird 13:56, 9. Mär 2006 (CET)
Ich kenn mich da nicht aus, habe nur mit quadratischen Pixeln gearbeitet.(nicht signierter Beitrag von Thierry Gschwind (Diskussion | Beiträge) 14:04, 9. Mär. 2006 (CET))
Kaum UV und IR empfindlich
Die Einordnung unter Nachteile gefällt mir nicht, denn diese unempfindlichkeit muß doch nicht per se ein Nachteil sein. Oder wie ist das gemeint? --jailbird 13:56, 9. Mär 2006 (CET)
Es gibt Anwendungen, da will man IR z.B. Night Vision in Security. (nicht signierter Beitrag von Thierry Gschwind (Diskussion | Beiträge) 14:04, 9. Mär. 2006 (CET))
Ich mach mal ne allgemeine Kategorie 'Unterschiede'. ob die UV/IR-Empfindlichkeit ein Vor- oder Nachteil ist, hängt ja erstmal von der Anwendung ab. Ich hoffe, das ist OK. --Smurftrooper 17:09, 9. Mär 2006 (CET)
Diese Aussage ist ohnehin nicht korrekt. Viele CMOS-Sensoren besitzen das Empfindlichkeitsmaximum im NIR-Bereich (>650 nm), während CCDs das Maximum im sichbaren Bereich (grünes Licht, 550nm) besitzen. Von daher ist die IR-Empfindlichkeit von CMOS-Sensoren besser. -- Dansei 14:52, 25. Mär. 2009 (CET)
Weiter fehlen mit Nachteile. Ich bin immer alarmiert wenn eine Technologie auftaucht, die angeblich keine Nachteile kennt. Wo liegt denn der typische Füllfaktor heutiger 6-8 MP APS-Sensoren? --jailbird 13:56, 9. Mär 2006 (CET)
Wenn ich mir mehr Nachteile im Sinn kommen, werde ich sie noch aufschreiben.(nicht signierter Beitrag von Thierry Gschwind (Diskussion | Beiträge) 14:04, 9. Mär. 2006 (CET))

ROI

Wie wärs wenn man RegionOfInterest als vorteil der CMOS-Chips mit aufnimmt?(nicht signierter Beitrag von 87.189.88.96 (Diskussion) 11:24, 20. Aug. 2007 (CEST))

Wo liegt deiner Meinung nach der Vorteil? --Cepheiden 15:07, 20. Aug. 2007 (CEST)
CCD-Sensoren bieten in der Regel keine ROI (oder Window OI oder Area OI) auf dem Chip, diese muss dann z. B. mittels eines FPGA nachgebildet werden. CMOS-Sensoren bieten wahlfreien Pixelzugriff, so dass es möglich ist, vom Sensor nur die Pixel der ROI ausgeben zu lassen. Dies bringt, je nach Größe der ROI, einen deutlichen Geschwindigkeitsvorteil beim Auslesen mit sich. -- Dansei 14:52, 25. Mär. 2009 (CET)

"größere Empfindlichkeitsunterschiede zwischen den Pixeln, was bei Bayer-Sensoren zu einem stärkeren Farbrauschen führt."

Das ist in dieser Allgemeinheit Unsinn. Bekanntermaßen haben die rauschärmsten Digitalkameras allesamt CMOS-Sensoren. Hier sollte differenziert werden. --AFranK99 [Disk.] 10:24, 28. Dez. 2007 (CET)

Bekanntermaßen gibt es unterschiedliche Arten von Rauschen, CCD haben beim einen, CMOS beim anderen Vorteile. Insgesamt erscheint mir jedoch der Artikel in großen Teilen völlig schwurbelig formuliert und mit massenhaft quellenlosen Aussagen gespickt. Datenblätter hat vermutlich kein einziger der Autoren gelesen, das klingt alles wie aus irgendwelchen Zeitschriften, Werbeprospekten oder online-medien zusammengestoppelt. -- Smial 11:33, 3. Jun. 2008 (CEST)
Tja, etwas "dünn" finde ich den Artikel auch. Aber dann verbessert doch was - das ist ja die Idee hier :-) -- Dansei 14:52, 25. Mär. 2009 (CET)

Hinweis an Autoren/Urheber auf Weiternutzung/Mängel

Hallo, Active Pixel Sensor wurde auf Weiternutzung/Mängel gemeldet, weil der Artikel / das Bild auf dieser Website eventuell lizenzwidrig benutzt wird. Du bist eingeladen, dich auf WP:WN/M an der Klärung der Frage zu beteiligen.

Viele Grüße -- Martina Nolte Disk. 15:02, 13. Feb. 2009 (CET)

Dieser Abschnitt kann archiviert werden. Martina Nolte Disk. 15:42, 13. Mär. 2009 (CET)

Achtung mal bei den Störartefakten

Hallo, ich wollte nur darauf hinweisen, das der Satz "Der Vorteil ist, dass die Elektronik direkt das Spannungssignal jedes einzelnen Pixels auslesen kann, ohne die Ladungen verschieben zu müssen, was eine deutlich geringere Neigung zum Blooming zur Folge hat. " nicht ganz korrekt ist!? Müsste anstelle von "Blooming" nicht "Smear" dastehen? Es ist richtig das auch Blooming vermindert beim CMOS auftritt, jedoch sind die transportbedingten Artefakte meines Wissens nach die, die als "Smear" bezeichnetet werden...?

Gruß Jens (nicht signierter Beitrag von 83.64.191.162 (Diskussion | Beiträge) 13:51, 10. Sep. 2009 (CEST))

Das sehe ich auch so. Verschieben verursacht Smear, das 'überlaufen' verbundener Zellen Blooming. Blooming tritt deshalb nicht auf, weil die Pixel beim CMOS nicht verbunden sind. --92.193.209.100 13:52, 4. Apr. 2010 (CEST)

Und die Farbe ?

Hey hier fehlt dringend noch wie die Farbe nun entsteht ! (nicht signierter Beitrag von 78.53.87.193 (Diskussion | Beiträge) 19:06, 11. Feb. 2010 (CET))

Zu trivial, mit einer Bayer-Maske wie beim CCD-Sensor. Auch gibt es Schwarz/Weiss-Sensoren ohne die Maske. http://en.wikipedia.org/wiki/Bayer_filter (nicht signierter Beitrag von 84.153.50.208 (Diskussion | Beiträge) 13:22, 14. Apr. 2010 (CEST))

Rolling Shutter

Sollte der Rolling-Shutter-Effekt nicht auch bei den Nachteilen aufgezählt werden? --AndreR 14:02, 26. Jul. 2010 (CEST)

Es gibt auch Sensoren mit Global Shutter, es ist somit der Nachteil einer spezifischen Art Sensors. --Thierry Gschwind 16:55, 26. Jul. 2010 (CEST)

Und die passiven?

CMOS-Bildsensor != APS, so lese ich es zumindest aus "CMOS Image Sensors: Electronic Camera-On-A-Chip" von E. R. Fossum. Ich wäre dafür, den Artikel CMOS-Bildsensor zu nennen (vgl. gängige engl. Bezeichnung CMOS image sensor) und dann wenigstens in einem Nebensatz auf den passiven einzugehen, damit nicht der Eindruck entsteht, APS und CMOS-Sensor wären synonym. --92.193.209.100 13:52, 4. Apr. 2010 (CEST)

Interessant könnte eine Auswertung von http://www.compumodules.com/pdf/sensors.pdf sein. -- smial 09:51, 12. Mär. 2011 (CET)

Empfindlichkeitsmaximum/Überarbeiten/Belege

Ich habe zwar die IP-Änderung zurückgesetzt, allerdings ist der Abschnitt als ganzes faul. Es gibt zahlreiche Dokumente im Web, die sich mit dem Thema befassen, die jedoch gern völlig unterschiedliche Angaben liefern. Ein paar Links:

-- Smial (Diskussion) 13:46, 23. Mai 2012 (CEST)

Ich möchte diese Aussage auch bezweifeln: CMOS-Bildsensoren besitzen oft eine höhere Empfindlichkeit im NIR-Bereich (engl. near infra-red, kurzwellige Infrarotstrahlung) als CCD-Sensoren. Bei vielen CMOS-Sensoren liegt das Empfindlichkeitsmaximum im NIR-Bereich (> 650 nm), während CCD-Sensoren das Maximum im sichtbaren Bereich (grünes Licht, 550 nm) besitzen. Nach meiner Erfahrung ist das eher genau umgekehrt, also CMOS besonders empfindlich im Grün, CCD eher im Rot/IR, z.B. bei den MT9M034 (CMOS) und dem ICX618 (CCD) ist das so. Allerdings kenne ich auch nur wenige Sensoren die in speziellen Kameras für Amateurastronomen verbaut sind. Deshalb muss dies natürlich nicht allgemeingültig sein, der Satz der im Artikel steht hat aber sicher auch keine Allgemeingültigkeit.--Herbrenner1984 (Diskussion) 13:05, 24. Mär. 2013 (CET)