Technologieforum Bildverarbeitung 2019 - Vortragsübersicht

REGISTRIERUNG >

Hier finden Sie einen Überblick zu allen angebotenen Vorträgen des Technologieforums Bildverarbeitung 2019 am 8./9. Oktober in Unterschleissheim.

Sie können sich nun Ihr Vortragsprogramm aus unterschiedlichen Blöcken für die beiden Veranstaltungstage einfach individuell zusammenstellen.

8. Oktober 2019


10:30-10:55


 
CAD-basierte 3D-Objekterkennung
STEMMER IMAGING AG
 
Tipps zur Einrichtung eines Industrial Embedded Vision Systems
Allied Vision Technologies GmbH
 
Lighting - a key enabler in machine vision applications
CCS Europe N.V.
 
Einblicke in die Entwicklung eines autonom fahrenden Rennwagens
municHMotorsports e.V.
 
Hyperspektrale Bildgebung - Technologie, Anwendungen und Zukunft
STEMMER IMAGING AG
 
Ein neuer EMVA-Standard für eine offene Schnittstelle zwischen optischen Komponenten und Kameras
EMVA OOCI Working Group

11:00-11:25


 
Neuartiges Verfahren zur Oberflächeninspektion mit strukturierten Beleuchtungsmustern
SAC Sirius Advanced Cybernetics GmbH
 
Performance-Vergleich verschiedener Embedded-Prozessoren
STEMMER IMAGING AG
 
Get the glare out! New polarized sensors paired with LED lighting solutions
Metaphase Technologies Inc.
 
Trends in der Bildverarbeitung in 2019 und darüber hinaus - wohin geht die Reise?
Teledyne DALSA Inc.
 
Bildverarbeitung in anspruchsvoller Umgebung - welcher IP-Schutz ist wirklich notwendig?
Autovimation GmbH
 
Bilderfassung und -vorverarbeitung mit dem Fokus Deep Learning und Hardware
Silicon Software GmbH

11:30-11:55


 
Modular Compact Sensors (MCS): Neuartige 3D-Lasertriangulationssensoren
Automation Technology GmbH
 
Moderne Anwendungsentwicklung und Rapid Prototyping in CVB mit C++, .Net und Python
STEMMER IMAGING AG
 
Woran kann es liegen? Fehlersuche in Bildverarbeitungssystemen
STEMMER IMAGING AG
 
Das sieht man doch - Lösungsstrategien zur Auswahl der idealen Beleuchtung
STEMMER IMAGING AG
 
Exploring the advantages of AI-enabled machine vision in intelligent manufacturing
Adlink Technology Inc.
 
Prismenbasierte multispektrale Bildgebung für Bildverarbeitungsanwendungen
JAI A.S.

12:00-13:25 Mittagspause



13:30-13:55


 
Random bin picking: Last step for a complete factory automation process
Infaimon S.L.
 
Laser für Embedded Vision
Z-Laser GmbH
 
Optische 2D-Vermessung am Beispiel Stecker und Pins
STEMMER IMAGING AG
 
Imaging without processing - recording image streams
STEMMER IMAGING AG
 
Megatrends für die Digitalisierung des Internets der Dinge und Industrie 4.0 (Doppelsession Teil 1)
Munz Endeavors
 
Fabric recycling with NIR hyperspectral cameras
Specim Spectral Imaging Ltd.

14:00-14:25


 
Bin picking from programming to CAD modeling
Photoneo s.r.o.
 
Moderne Technologien zur Vermessung am Beispiel Stecker und Pins
STEMMER IMAGING AG
 
Zeilenkameratechnologie - die nächste Generation
Teledyne DALSA Inc.
 
Aktueller Status der Industrie 4.0 OPC UA TSN Standardisierungen (Doppelsession Teil 2)
Munz Endeavors
 
Das "Embedded Vision Kochbuch"
STEMMER IMAGING AG
 
LED-Lichtquellen für hyperspektrale Bildgebung im Nah-Infrarot
OSRAM GmbH

14:30-14:55


 
Practical aspects of time-of-flight imaging for machine vision
Odos Imaging
 
Möglichkeiten für die Entwicklung kostengünstiger Multi-Kamerasysteme mit MIPI-Sensormodulen
The Imaging Source Europe GmbH
 
Die Polarisation des Lichts - Verborgenes sichtbar machen
STEMMER IMAGING AG
 
Vision system validation
CEI Components Express Inc.
 
Top-Trends in der Bildverarbeitung
InVISION Magazin
 
Leistungsstarke SWIR-Kameras in der industriellen Bildverarbeitung und Prozesskontrolle
Xenics N.V.

15:00-15:40 Kaffeepause



15:45-16:10


 
Improving productivity with high-quality, eye-safe 3D machine vision
Zivid
 
Intrinsiche Kalibrierung von Laser-Linien-Sensoren
STEMMER IMAGING AG
 
Flüssiglinsen und deren Integration in OEM- Systeme
Optotune Switzerland AG
 
Standards, system benefits drive convergence of machine vision, Industrial Internet of Things (IIoT)
Smart Vision Lights
 
Grundlagen des maschinellen Lernens
STEMMER IMAGING AG
 
Multi- und hyperspektrale Bildverarbeitung für Anwendungen in Industrie, Biomedizin und dem täglichen Leben
Spectronet

16:15-16:40


 
Inspektion von Glas und anderen spiegelnden Oberflächen mit 3D-Smart-Technologie
LMI Technologies Inc.
 
Kalibriermethoden und deren Anforderungen
STEMMER IMAGING AG
 
Einfluss optischer Komponenten auf die Abbildungsleistung
Jos. Schneider Optische Werke GmbH
 
sCMOS cameras - what is the difference over CMOS
Vieworks Co. Ltd.
 
Vorschau auf die kommenden Erweiterungen des EMVA-1288 -Standards zur Kameracharakterisierung
EMVA 1288 Working Group
 
Hyperspektrale Apps für industrielle Anwendungen
Perception Park GmbH

16:45-17:10


 
Shape-from-Focus - eine ungewöhnliche und leistungsfähige 3D-Bildgebungstechnologie
STEMMER IMAGING AG
 
Key features of a quality machine vision optical filter
Midwest Optical Systems Inc.
 
A deeper understanding of some of the complexities within LED lighting control
Gardasoft Vision Ltd.
 
Vision Systeme der Zukunft - eine Kombination von Technologien
Teledyne DALSA Inc.
 
Neuronale Netze - Funktionsweise und Alternativen
STEMMER IMAGING AG
 
Intelligente Infrarotkameras: Ein neuer technologischer Ansatz für Industrie 4.0)
Automation Technology GmbH

19:00 Abendveranstaltung


9. Oktober 2019


09:00-09:25


 
Optische 2D-Vermessung am Beispiel Stecker und Pins
STEMMER IMAGING AG
 
Möglichkeiten für die Entwicklung kostengünstiger Multi-Kamerasysteme mit MIPI-Sensormodulen
The Imaging Source Europe GmbH
 
Exploring the advantages of AI-enabled machine vision in intelligent manufacturing
Adlink Technology Inc.
 
Neuartiges Verfahren zur Oberflächeninspektion mit strukturierten Beleuchtungsmustern
SAC Sirius Advanced Cybernetics GmbH
 
Hyperspektrale Bildgebung - Technologie, Anwendungen und Zukunft
STEMMER IMAGING AG
 
Lighting - a key enabler in machine vision applications
CCS Europe N.V.

09:30-09:55


 
Moderne Technologien zur Vermessung am Beispiel Stecker und Pins
STEMMER IMAGING AG
 
Multi- und hyperspektrale Bildverarbeitung für Anwendungen in Industrie, Biomedizin und dem täglichen Leben
Spectronet
 
Grundlagen des maschinellen Lernens
STEMMER IMAGING AG
 
Vision- Systeme der Zukunft - eine Kombination von Technologien
Teledyne DALSA Inc.
 
Woran kann es liegen? Fehlersuche in Bildverarbeitungssystemen
STEMMER IMAGING AG
 
CAD-basierte 3D-Objekterkennung
STEMMER IMAGING AG

10:00-10:25


 
A deeper understanding of some of the complexities within LED lighting control
Gardasoft Vision Ltd.
 
Hyperspektrale Apps für industrielle Anwendungen
Perception Park GmbH
 
Modular Compact Sensors (MCS): Neuartige 3D-Lasertriangulationssensoren
Automation Technology GmbH
 
Bildverarbeitung in anspruchsvoller Umgebung - welcher IP-Schutz ist wirklich notwendig?
Autovimation GmbH
 
Performance-Vergleich verschiedener Embedded-Prozessoren
STEMMER IMAGING AG
 
Top-Trends in der Bildverarbeitung
InVISION Magazin

10:30-11:10 Kaffeepause



11:15-11:40


 
Einfluss optischer Komponenten auf die Abbildungsleistung
Jos. Schneider Optische Werke GmbH
 
Prismenbasierte multispektrale Bildgebung für Bildverarbeitungsanwendungen
JAI A.S.
 
Bin picking from programming to CAD modeling
Photoneos.r.o.
 
sCMOS cameras - what is the difference over CMOS
Vieworks Co. Ltd.
 
Ein neuer EMVA-Standard für eine offene Schnittstelle zwischen optischen Komponenten und Kameras
EMVA OOCI Working Group
 
Key features of a quality machine vision optical filter
Midwest Optical Systems Inc.

11:45-12:10


 
Kalibriermethoden und deren Anforderungen
STEMMER IMAGING AG
 
Moderne Anwendungsentwicklung und Rapid Prototyping in CVB mit C++, .Net und Python
STEMMER IMAGING AG
 
Intelligente Infrarotkameras: Ein neuer technologischer Ansatz für Industrie 4.0)
Automation Technology GmbH
 
Zeilenkameratechnologie - die nächste Generation
Teledyne DALSA Inc.
 
Shape-from-Focus - eine ungewöhnliche und leistungsfähige 3D-Bildgebungstechnologie
STEMMER IMAGING AG
 
Standards, system benefits drive convergence of machine vision, Industrial Internet of Things (IIoT)
Smart Vision Lights

12:15-12:40


 
Hardware independence as a strategic choice
STEMMER IMAGING AG
 
Improving productivity with high-quality, eye-safe 3D machine vision
Zivid
 
Leistungsstarke SWIR-Kameras in der industriellen Bildverarbeitung und Prozesskontrollel
Xenics N.V.
 
Neuronale Netze - Funktionsweise und Alternativen
STEMMER IMAGING AG
 
Vorschau auf die kommenden Erweiterungen des EMVA-1288-Standards zur Kameracharakterisierung
EMVA 1288 Working Group
 
Vision system validation
CEI Components Express Inc.

12:45-14:10 Mittagspause



14:15-14:40


 
Das sieht man doch - Lösungsstrategien zur Auswahl der idealen Beleuchtung
STEMMER IMAGING AG
 
LED-Lichtquellen für hyperspektrale Bildgebung im Nah-Infrarot
OSRAM GmbH
 
Inspektion von Glas und anderen spiegelnden Oberflächen mit 3D-Smart-Technologie
LMI Technologies Inc.
 
Einblicke in die Entwicklung eines autonom fahrenden Rennwagens
municHMotorsports e.V.
 
Das "Embedded Vision Kochbuch"
STEMMER IMAGING AG
 
Flüssiglinsen und deren Integration in OEM Systeme
Optotune Switzerland AG

14:45-15:10


 
Get the glare out! New polarized sensors paired with LED lighting solutions
Metaphase Technologies Inc.
 
Machine Vision: Marktüberblick und Trends
VDMA Robotics + Automation
 
Random bin picking: Last step for a complete factory automation process
Infaimon S.L.
 
Fabric recycling with NIR hyperspectral cameras
Specim Spectral Imaging Ltd.
 
Bilderfassung und -vorverarbeitung mit dem Fokus Deep Learning und Hardware
Silicon Software GmbH
 
Tipps zur Einrichtung eines Industrial Embedded Vision Systems
Allied Vision Technologies GmbH

15:15-15:40


 
Intrinsiche Kalibrierung von Laser-Linien-Sensoren
STEMMER IMAGING AG
 
Practical aspects of time-of-flight imaging for machine vision
Odos Imaging
 
Die Polarisation des Lichts - Verborgenes sichtbar machen
STEMMER IMAGING AG
 
Trends in der Bildverarbeitung in 2019 und darüber hinaus - wohin geht die Reise?
Teledyne DALSA Inc.
 
Laser für Embedded Vision
Z-Laser GmbH
 
Imaging without processing - recording image streams
STEMMER IMAGING AG

ALLE VORTRÄGE IM ÜBERBLICK

IIOT - INDUSTRIE 4.0

 

Exploring the advantages of AI-enabled machine vision in intelligent manufacturing

Adlink

Referent: Chia-Wei Yang, Adlink Technology Inc.

Deep learning machine vision provides significant capability to empower and update conventional AOI assets to intelligent AI-enabled equipment with comprehensive modeling applications. Locating and identifying the requisite optimized Edge devices is a critical consideration in next generation AOI system design. Acquisition of data, execution of specific applications, and full utilization of computational nodes among the entire IoT network is necessary to provide not only AI modeling training & provisional capability, but also the manageability of AI-enabled AOI nodes (equipment) in the Smart Factory.

This presentation will discuss procedures for scaling entire vision systems from a single computing device to an entire IoT Edge network quickly and easily, and streaming the featured image to storage and analytic services, to achieve a true AIoT solution.

 

Bildverarbeitung in anspruchsvoller Umgebung: Welcher IP-Schutz ist wirklich notwendig?

autoVimation

Referent: Peter Neuhaus, Autovimation GmbH

Immer neue Anwendungsbereiche in der digitalen Bildverarbeitung erfordern kreative Ansätze um die empfindliche Technik vor mechanischen, chemischen oder thermischen Belastungen zu schützen. Während in der Holzverarbeitung vorwiegend Staub umherwirbelt, muss in der Lebensmittel- und Pharma-Industrie zusätzlich die Kontamination der Produkte durch das Kamerasystem vermieden werden. In den IP-Schutzklassen (International Protection Codes) ist genau definiert, inwieweit das unerwünschte Eindringen von Fremdkörpern und Feuchtigkeit in das Geräteinnere unterbunden wird.

Dieser Vortrag erläutert die Auswahl einer sinnvollen, anwendungsbezogenen Einhausung und erforderliches Zubehör für das Bildverarbeitungssystem um dessen Einsatz auch in rauer Umgebung zu ermöglichen.

 

Vorschau auf die kommenden Erweiterungen des EMVA-1288-Standards zur Kameracharakterisierung

EMVA 1288

Referent: Prof. Dr. Bernd Jähne, EMVA 1288 Working Group

Der bewährte Standard 1288 der EMVA zur Charakterisierung von Kameras wird in der nächsten Version wesentliche Erweiterungen erfahren angepasst an den Fortschritt der Bildsensortechnologie und wird damit nützliche denn je sein. In dem Vortrag wird eine Vorschau gegeben. Der Standard wird nicht mehr auf lineare Kameramodelle beschränkt sein und kann auch auf Kameras mit Objektiven angewendet werden. Zusätzlich wird der Spektralbereich auf UV und SWIR erweitert, Polarisationsbildsensoren können charakterisiert werden und die Beschreibung der Inhomogenitäten und des Dunkelstroms wird erweitert und damit auf moderne Bildsensoren angepasst werden.

 

Ein neuer EMVA Standard für eine offene Schnittstelle zwischen optischen Komponenten und Kameras

EMVA 1288

Referent: Prof. Dr. Bernd Jähne, EMVA OOCI Working Group

Der in Entwicklung befindliche Standard „Open Optics Camera Interface“ (OOCI) schließt eine wichtige Lücke. Endlich wird der Bildverarbeitungsindustrie damit Möglichkeiten geboten, wie es diese schon lange im Consumerbereich realisiert sind, aber nur proprietär: Über die offene Schnittstelle können Kamera und Optik miteinander kommunizieren. Damit lassen sich nicht nur Autofokussysteme und Blendensteuerung realisieren, sondern auch Objektiveigenschaften an die Kamera übertragen und eine Vielzahl von Verfahren des Computational Imaging realisieren. Der Vortrag beschreibt die wesentlichen Elemente des neuen Standards.

 

Megatrends für die Digitalisierung des Internets der Dinge und Industrie 4.0 (Doppelsession Teil 1)

Referent: Heinrich Munz, Munz Endeavors

Wozu brauchen wir eigentlich Industrie 4.0? Nur um Fertigungsanlagen zu optimieren wäre etwas zu kurz gesprungen. Es kommen auch noch andere Probleme auf uns zu, welche eine effizientere Fertigung notwendig machen. Beispiele sind der demografische Wandel, die Nachfrage an die schiere Menge von Produkten aufgrund erhöhter Anzahl Menschen, welche sich diese Produkte leisten können. Wie helfen Globalisierung, Automatisierung und Digitalisierung diese Probleme zu lösen? Wie hängen Digitalisierung, das Internet der Dinge und Industrie 4.0 zusammen? Stimmt es, dass Roboter den Menschen die Arbeit wegnehmen? Wie funktionieren Pizza, Car und Robot as a Service? Welche Rolle spielt Software dabei und wie wird Software die Arbeitsweise von Maschinenbauern verändern? Wie sieht der Nachfolger der über 150 Jahre alten Förderbänder in der Produktion aus? Was passiert, wenn man „Maschinelles Lernen“ am Beispiel von Industrierobotern wörtlich nimmt und wenn diese ein gemeinsames Klassenzimmer in Form der Cloud haben? Apropos Cloud: Was sind Platformization, Shareconomy, Prosumer und Distributed Ledger? Auf all diese Fragen versucht der Vortrag in vergnüglicher Art und Weise Antworten zu geben.

 

Aktueller Status der Industrie 4.0 OPC UA TSN Standardisierungen (Doppelsession Teil 2)

Referent: Heinrich Munz, Munz Endeavors

Dieser Vortrag gibt einen Überblick über OPC UA, stellt die TSN Akteure und den Standardisierungs-Workflow vor und zeigt auf wie OPC UA im VDMA und ZVEI (Companion Specifications, Pub/Sub Methods und Verwaltungsschale) aufgehängt ist. Zusätzlich befasst sich der Referent mit dem Thema Functional Safety over OPC UA und erklärt, was sich hinter der Industrial Cloud Federation Initiative des DIN und der Bitkom verbirgt. Weitere Themen sind OPC UA Testbeds im LNI 4.0 und das Edge Computing Consortium Europe (ECCE).

 

Standards, system benefits drive convergence of machine vision, industrial internet of things (IIoT)

Smart Vision Lights

Referent: Steve Kinney, Smart Vision Lights

While IIoT is one of today’s coolest buzz words, machine vision solutions have been at forefront of machine-to-machine communications since the vision industry’s inception in the 1980s. Mainly because there is no automated solution unless the machine vision data – whether it be an offset, pass/fail judgement, or other critical data – is communicated to nearby robots, manufacturing equipment and the engineers, technicians and management that operate them for subsequent action.

In the past, machine vision solutions passed data along a variety of transport layers, whether it be consumer interfaces, such as Gigabit Ethernet, USB, or dedicated industrial interfaces such as CameraLink. Supporting data interface, transport and library standards such as GigE Vision and GenICam further improved the ease at which machine vision solutions could communicate with nearby machines.

Today, these standards now extend further into the system beyond just defining the camera component through standards such as the Local Interconnect Network (LIN), Mobile Industry Processor Interface (MIPI) that enable cost-effective electronic device design and sub-assembly communication. At the same time, wired networks such as industrial gigabit ethernet, coaxial, and others are being complimented by wireless edge networks that will enable more plug-and-play operation and control with all system peripherals, not just the camera-PC pipeline. This presentation will explore how these old and new standards are enabling new, cost-effective machine vision solution designs.

EMBEDDED VISION

 

Tipps zur Einrichtung eines Industrial Embedded Vision Systems

Allied Vision

Referent: Matthias Werner, Allied Vision Technologies GmbH

Embedded-Lösungen bieten viele Vorteile, wie niedrigere Kosten, geringerer Energieverbrauch, kompaktes Design und zunehmend leistungsfähige Embedded-Boards, die eine Migration von PC-basierten zu Embedded-Lösungen für den industriellen Bereich interessant machen. Aber wann ist der Einsatz einer Embedded-Lösung wirklich sinnvoll? Welche Hard- und Software-Architekturen eignen sich für die Anwendung? Welche Komponenten und Fragen müssen beim Aufbau eines Embedded Vision Systems berücksichtigt werden?

In der Evaluierungsphase für eine neue Bildverarbeitungslösung müssen diese Aspekte sorgfältig geprüft und die Anforderungen überprüft werden. Embedded Systeme bringen nicht nur Vorteile für Benutzer der industriellen Bildverarbeitung, die zuvor PC-basiert gearbeitet haben, sondern auch neue Herausforderungen wie neue Hardwarearchitekturen, Schnittstellen, neue Datenverarbeitungsparadigmen und Open-Source-Betriebssysteme.

Diese Präsentation bietet einen Überblick über die wichtigsten Schlüsselfaktoren und stellt mögliche Einrichtungsszenarien für Industrial Embedded Vision vor.

 

Performance-Vergleich verschiedener Embedded-Prozessoren

STEMMER IMAGING

Referent: Andreas Rittinger, STEMMER IMAGING AG

Dieser Vortrag vergleicht unterschiedlichste Prozessor-Plattformen (ARM-basiert, NVIDA-Jetson, Intel-ATOM basiert) miteinander und geht auf Einschränkungen hinsichtlich der Erfassung von Kameradaten ein. Die Ergebnisse von Benchmark-Tests zeigen, wie leistungsfähig die gleiche Anwendung auf unterschiedlichen Plattformen läuft. Ferner wird ein Vergleich eines CUDA optimierten Algorithmus auf einem TX1 System und einer Windows Grafikkarte mit der Ausführung auf einer herkömmlichen Intel bzw. ARM CPU gezeigt.

 

Das „Embedded Vision“-Kochbuch

STEMMER IMAGING

Referent: Andreas Rittinger, STEMMER IMAGING AG

Embedded Vision deckt ein ziemlich breites Spektrum an Anwendungen und Lösungen ab. Dafür sind die richtigen „Zutaten“ in puncto Hardware, Kamera und Software nötig. Der Einstieg ist oft der schwierigste Teil.

Diese Präsentation soll Ihnen neben einem groben Überblick über Embedded Vision auch ein Rezept für die Entwicklung eines Beispielssystems an die Hand geben. Wir zeigen Ihnen, auf welche Schritte es ankommt und wie Common Vision Blox (CVB) dabei helfen kann.

 

Möglichkeiten für die Entwicklung kostengünstiger Mehrfach-Kamerasysteme mit MIPI-Sensormodulen

The Imaging Source

Referent: Roland Ackermann, The Imaging Source Europe GmbH

Embedded Vision eignet sich hervorragend für hoch perfomate Anwendungen mit kostengünstigen MIPI- Sensormodulen zum Aufbau von Mehrfach-Kamerasystemen und eine daran anschliessende Verarbeitung der Daten mittels AI und Deep Learning.

In diesem Vortrag wird auf die möglichen Anschlussvarianten von Industriekameras (USB3, GigE und MIPI) vorallem an NVIDIA Jetson Boards (Nano, TX2, Xavier) eingegangen und deren Performance gegenübergestellt.

Die Möglichkeiten, mehrere Kameras an diesen Embedded Systemen anzusteuern, sei es mit kurzer interner Anbindung über MIPI CSI-2 oder langer externer Anbindung mit FPD-Link III (bis zu 15m) , wird in der Theorie und Praxis erläutert.

Die Bandweite, maximale Anzahl der Sensorköpfe und die Vorteile bei der direkten Ansteuerung über die ISP gezeigt.

Weiterhin gibt es einen Ausblick auf die verwendbaren Sensor-Module mit Global und Rolling Shutter.

 

Laser für Embedded Vision

Z-Laser

Referent: Thomas Ruhnau, Z-Laser GmbH

Hersteller von Lasertriangulationssensoren gehen immer mehr dazu über, die Lasermodule tief in ihre Systeme zu integrieren und diese nicht nur als „einfache“ Beleuchtungskomponente zu sehen. Dies bringt einige erhebliche Vorteile mit sich. Der Formfaktor des Lasersystems kann erheblich reduziert und an die baulichen Gegebenheiten angepasst werden. Ebenfalls wird die Kostenstruktur optimiert. Es ist jedoch wichtig, ein hohes Maß an Flexibilität beizubehalten, um die große Anzahl von Varianten für alle Anwendungsfälle einer Produktplattform abzudecken (Wellenlänge, Optik, Ausgangsleistung). Weitere Überlegungen betreffen Themen wie den Feldaustausch ohne Neukalibrierung des Sensors, die Unterstützung aller Laservarianten ohne Auswirkung auf die Systemintegration und die Wahrung der Lasersicherheit.

Um den OEM bei der Reduzierung von Kosten und Formfaktor weiter zu unterstützen, kann die Treiberelektronik mit unserer lizenzierten Software direkt in das PCB-Design integriert werden. Um ungeplante Ausfallzeiten zu reduzieren, gibt es die Möglichkeit, eine berechnete potenziell bevorstehende EOL-Situation (End of Life) vorherzusagen.

3D-TECHNOLOGIE

 

Modular Compact Sensors (MCS): Neuartige 3D-Lasertriangulationssensoren

Automation Technology

Referent: Dr. Athinodoros Klipfel, Automation Technology

3D-Sensoren mit Lasertriangulation werden immer mehr bei der Entwicklung von Inspektionssystemen in der Industrie eingesetzt. In der Regel bestehen sie entweder aus diskret aufgebauten Komponenten (Kamera und Linienlaser) oder aus seriengefertigten und werkskalibrierten Geräten mit integrierten Komponenten in einem Schutzgehäuse.

Diskrete Aufbauten haben den Vorteil der einfachen Anpassung auf die Anforderungen der Applikation (FOV, Triangulationswinkel, Arbeitsabstand). Sie haben aber den Nachteil des erhöhten Aufwandes zur Systemauslegung, Kalibrierung und Integration in der Anwendung. Im Gegensatz bieten werkskalibrierte 3D-Sensoren eine einfache Integration und sie beschleunigen somit die Applikationsentwicklung. Anderseits ist eine applikationsspezifische Anpassung von seriengefertigten 3D-Sensoren nur mit hohem Aufwand und NRE-Kosten möglich.

Dieser Vortrag präsentiert ein neues Konzept von 3D-Lasertriangulationssensoren mit modularem Design (MCS - Modular Compact Sensors), welches die Flexibilität von diskret aufgebauten Setups mit den Vorteilen von werkskalibrierten Geräten kombiniert.

 

Random bin picking. Last step for a complete factory automation process

Infaimon

In the current industry, automation and the use of robots are essential parts of the production processes. A key element of the ‘factory of the future’ is the complete automation of processes and its adaptation to the more dynamic and flexible industrial environments.

Nowadays, in spite of the high degree of integration of robots in plants, some processes still involve operators doing manual picking of random placed objects from containers.

The automation at this stage of the process requires a robot and a vision system that identifies the position of the objects inside the containers dynamically. This is what we know as bin picking. Bin picking consists of a hardware solution (vision + robot) and software solution (image analysis + communication) that allows extracting random parts from containers.

Bin Picking provides the complete automation of processes with a series of advantages:

  • Reduction of heavy work and low-value added tasks for operators
  • Maximization of space in the factory thanks to being more compact than current mechanical solutions
  • Adaptation to flexible manufacturing processes
  • Reduction of cycle times increasing machine productivity

 

Inspektion von Glas und anderen spiegelnden Oberflächen mit 3D-Smart-Technologie

LMI Technologies

Referent: Christian Benderoth, LMI Technologies Inc.

Wie kann laserbasierte 3D-Smart-Technologie die Herausforderungen beim Scannen von Glas und spiegelnden Oberflächen lösen? Konkret geht es dabei um die Inspektion von Glasbaugruppen bei Mobiltelefonen, eine typische Anwendung in der Unterhaltungselektronik. Dabei erfasst der Lasersensor die Glaskante in seinem Rahmen und erzeugt hochauflösende 3D-Daten. Die Daten werden dann zum Extrahieren von Kanten- und Spaltmerkmalen, sowie zur Messung von Bündigkeit und Versatz verwendet, um so die Einhaltung von Montagetoleranzen sicherzustellen.

In der Präsentation wird vorgestellt, wie 3D-Smart-Sensoren eine optimierte Messoptik und eine spezielle Laserprojektionstechnologie nutzen, um die besten Prüfergebnisse zu erzielen. Die wichtigsten Sensoranforderungen werden dabei näher erläutert: eine geringe Empfindlichkeit gegenüber den Neigungswinkel; die Fähigkeit, Rauschen zu entfernen, das durch Laserstreuung am Rand der Objektoberfläche entsteht; genaue Messung verschiedener Oberflächenfarben und Oberflächentypen (z. B. beschichtet, glänzend, transparent) sowie die Anforderung, mit Geschwindigkeiten von mehr als 5 kHz zu scannen und zu prüfen, um einen kontinuierlichen Produktionsfluss zu bewältigen; und somit niedrige Gesamtbetriebskosten für maximale Rentabilität zu erhalten.

 

Practical aspects of time-of-flight imaging for machine vision

odos imaging

Referent: Ritchie Logan, Odos Imaging

Time-of-Flight (ToF) imaging is a well known technology, yet remains relatively novel in machine vision. This talk will examine the practical aspects of ToF imaging and applicability for general machine vision tasks.

The talk will look at the processing occurring on board a ToF imaging device and through the use of application examples, will also look at the post-processing steps on the client PC for successful deployment.

 

Bin picking - From programming to CAD modeling

Photoneo

  • Skill set required for Bin Picking
  • CAD simulation and modeling
  • Designed for robotic integrators
  • Sustainability of Bin Picking Studio
  • Benefits of CAD modeling
  • Challenges
  • Future

 

Neuartiges Verfahren zur Oberflächeninspektion mit strukturierten Beleuchtungsmustern

SAC Sirius Advanced Cybernetics GmbH

Referent: Dr. Christoph Wagner, SAC Sirius Advanced Cybernetics GmbH

Strukturierte Beleuchtungsmuster eröffnen neue Möglichkeiten für die schnelle und effiziente Prüfung von Oberflächen. Ausgewählte Muster ermöglichen die Prüfung auf feinste 3D-Defekte bis hin zum Glanz der Oberfläche. Mit Hilfe einer kompakten und flächigen Beleuchtungseinheit werden auf elektronischem Weg strukturierte Muster erzeugt. Anders als bei anderen strukturierten Beleuchtungsverfahren geschieht der Wechsel der Beleuchtungsmuster dabei mit vielfach höherer Frequenz und Intensität. Dies ermöglicht die effiziente Inspektion von Bauteilen sowohl im Stillstand als auch in linearer Bewegung und Rotation.

Ein integrierter Sensor umfasst sämtliche Schnittstellen zur einfachen Einbindung in den Prüfprozess. Die automatisierte Auswertung erfolgt benutzerfreundlich anhand von topographischen Bildern der Oberfläche. Ein Vergleich schlägt die Brücke zu bestehenden Verfahren der Oberflächenprüfung wie dem photometrischen Stereoverfahren und weiterentwickelten Technologien für glänzende Oberflächen.

 

Shape-from-Focus – eine ungewöhnliche und leistungsfähige 3D–Bildgebungstechnologie

STEMMER IMAGING

Referent: Dr. Tobias Henzler, STEMMER IMAGING AG

Es wird eine ungewöhnliche, leistungsfähige 3D-Bildgebungs-Technologie präsentiert, die eine automatisierte Fokusvariation eines telezentrischen Messobjektivs verwendet: Shape-from-Focus (SFF). Eine intelligente Verarbeitung des aufgenommenen Bildstapels erlaubt dabei, sowohl ein 3D Höhenbild als auch ein 3D-Intensitätsbild mit enorm gesteigerter Schärfentiefe zu berechnen.

Neben der Erläuterung des Prinzips der SFF-Technologie runden Details zur Verarbeitung mittels CVB, zu dem mechanischen Aufbau des Linsen-Systems und Beispiele repräsentativer Anwendungsfälle die Präsentation ab.

 

CAD-basierte 3D-Objekterkennung

STEMMER IMAGING

Referent: Stefan Schwager, STEMMER IMAGING AG

Dieser Vortrag stellt das neue CVB-Tool DNC vor. Das Tool ermöglicht schnelle 3D-Objekterkennung in kalibrierten Punktwolken anhand eines CAD-Modells. Der Referent zeigt Beispiele und erklärt, was beim Antrainieren des Modells zu beachten ist und welche Ergebnisse zu erwarten sind.

 

Improving productivity with high-quality, eye-safe 3D machine vision

Zivid

Referent: Henrik Schumann-Olsen, Zivid

How do you stay ahead of the competition in a fast-paced machine vision and industrial automation market?

In this 20 minutes lecture, we'll introduce you to a few crucial concepts required for implementing a flexible and scalable machine vision platform for everything from bin-picking to manufacturing, inspection and assembly, and even logistics and e-commerce.

Most of today's industrial and collaborative robots are "visually impaired", giving forward-leaning customers a headstart when using STEMMER IMAGING's latest 3D color cameras in their automation processes.

Attendees will learn how eye-safe, white structured light hardware can reduce implementation speed, solve more tasks over a flexible working distance, while accurately recognizing more objects.

MACHINE LEARNING

 

Bilderfassung und Vorverarbeitung mit dem Fokus Deep Learning und Hardware

Silicon Software

Referent: Björn Rudde, Silicon Software GmbH

Während Sensoren und Schnittstellen ihre Auflösungen und Geschwindigkeit steigern, erreicht die Komplexität der Bildverarbeitungsaufgaben neue Grenzen. Wie dies unter realen Bedingungen gelöst wird, zeigt dieser kritische Vortrag aus Sicht eines Applikations-Ingenieurs im Außendienst. Verpassen Sie nicht diese interaktive Präsentation auf Basis von Entwicklungswerkzeugen.

 

Grundlagen des maschinellen Lernens

STEMMER IMAGING

Referent: Phil Gralla, STEMMER IMAGING AG

Maschinelles Lernen im Allgemeinen und Neuronale Netze im Speziellen ist eine der populärsten neuen Technologien für Computer Vision. Durch bahnbrechende Ergebnisse in der Objekterkennung und einfachen Zugang zu fertigen Softwarebibliotheken erfreuen sie sich einer wachsenden Beliebtheit bei Forschern und Anwendern. Eine Vielzahl an Buzzwords wie, Neuronale Netze, KI, supervised/ unsupervised learning, lineare Modelle sind heutzutage allgegenwärtig. Was aber genau steckt hinter diesen Begriffen und wie funktioniert maschinelles Lernen.

In diesem Kurzvortrag werden die Grundlagen des maschinellen Lernens einfach dargestellt und die Bedeutung der häufigsten Buzzwords erklärt. Für einen weiteren und tieferen Einblick in dieses Thema empfehlen wir den Vortrag „Neuronale Netze – Funktionsweise und Alternativen“, der nach dieser Einführung auch für Einsteiger nachvollziehbar ist.

 

Neuronale Netze – Funktionsweise und Alternativen

STEMMER IMAGING

Referent: Phil Gralla, STEMMER IMAGING AG

Neuronale Netze in all ihrer Form (GANN, CNNs, etc) sind derzeit eine der, wenn nicht die, bekannteste Art des maschinellen Lernens. Sie sind jedoch nicht die einzige Methode für effektives maschinelles Lernen. In diesem Vortrag wird genauer auf die Funktionsweise und Vor- sowie Nachteile von Neuronalen Netzen eingegangen und zu anderen Methoden des maschinellen Lernens wie Support Vector Machines, Gradient Boosed Trees, Nearest Neighbors, etc. verglichen.

Sollte das Thema des maschinellen Lernens für Sie neu sein, empfiehlt es sich zuerst den Vortrag „Grundlagen des maschinellen Lernens“ zu hören um diesem Vortrag einfach folgen zu können.

SPEKTRALE BILDVERARBEITUNG

 

Intelligente Infrarotkameras: Ein neuer technologischer Ansatz für Industrie 4.0

Automation Technology

Referent: Michael Wandelt, Automation Technology GmbH

Obwohl die Wärmebildverarbeitung mit Infrarotkameras vor allem für industrielle Anwendungen ein großes Potenzial besitzt, hat sie bisher nur in sehr begrenztem Umfang Eingang in die Automatisierung und Qualitätssicherung gefunden. Während mit der Einführung ungekühlter Detektoren die wesentliche Basistechnologie für das Design thermischer Industriekameras seit mehr als 20 Jahren zur Verfügung steht, gibt es nach wie vor viele Hindernisse für den praktischen Einsatz.

Ein wichtiger Grund für die geringe Verbreitung in der Industrie ist das Fehlen von Standardsoftware für die thermische Bildverarbeitung. Integratoren müssen auf SDKs zurückgreifen, die von den Kameraherstellern bereitgestellt werden, um ihre eigenen Softwarelösungen zu entwickeln. Dies bedeutet eine hohe Einstiegshürde.

Darüber hinaus sind die heute verfügbaren Kameramodelle nicht konsequent für industrielle Anwendungen ausgelegt. Die Hersteller verfügen nicht über ausreichende Anwendungserfahrung und sehen die Industrie immer noch nicht als relevanten Zielmarkt.

Ein dritter Aspekt ist, dass die Akzeptanz computergestützter Bildverarbeitungssysteme tendenziell eher abnimmt. Gründe hierfür sind unter anderem die Komplexität solcher Systeme, Kosten, Stabilität, Datensicherheit und der Wartungsaufwand.

In dem Vortrag wird ein neuer gerätebezogener Ansatz mit intelligenten Wärmebildkameras vorgestellt, um die Hindernisse für praktische Anwendungen zu beseitigen und das Potenzial der Temperaturbildverarbeitung im industriellen Umfeld zu erschließen.

 

Prismenbasierte multispektrale Bildgebung für Bildverarbeitungsanwendungen

JAI

Referent: Jochen Braun, JAI A.S.

Trotz des immensen Potenzials der hyperspektralen Bildgebung bei der Qualitäts- und Strukturprüfung von Lebensmitteln, Pflanzengesundheit und -wachstum, Umweltüberwachung, Pharmazeutika, medizinischer Diagnostik, forensischer Wissenschaft und Dünnschichtanalyse scheint der Anwendungsbereich in industriellen Umgebungen oft begrenzt zu sein. Dies liegt daran, dass die heute verfügbaren hyperspektralen Bildgebungstechniken langsam sind, Sensoren mit niedriger Auflösung verwenden, ein komplexes Bilddatenhandling erfordern und bei der Vervielfachung kostspielig sind. Darüber hinaus wird häufig im Rahmne der Erprobungen festgestellt, dass eine spezifische Anwendung, die mit einem breiten hyperspektralen Ansatz beginnt, mit einer geringeren Anzahl von nur 3 oder 4 der Wellenlängenbänder gelöst werden kann. Heutzutage werden hyperspektrale Anwendungen normalerweise in Laboratorien untersucht, wobei es die Hauptaufgabe ist relevanten Bänder zu finden, um zwischen zwei oder mehr Objekten zu unterscheiden.

Aus industrieller Sicht hat die multispektrale Bildgebung ein höheres Anwendungspotenzial. Die Komplexität der Datenverarbeitung ist geringer aufgrund der geringeren Anzahl von Spektralbereichen, höherer Bildzeilen- / Bildraten und niedrigeren Systemkosten. Multispektrale und hyperspektrale Bildgebung sind keine Konkurrenz, sondern sich ergänzende Technologien, wenn sie in den richtigen Anwendungen eingesetzt werden. Schließlich können die Informationen zu Anzahl und Spektralität der mit Hyperspektralkameras identifizierten Bänder zum Entwerfen von Multispektralkameras verwendet werden, die dann in realen industriellen Hochgeschwindigkeitsumgebungen verwendet werden können. Hier finden die neuesten Kameralösungen ihre Anwendung.

 

LED-Lichtquellen für die Hyperspektrale Bildgebung im Nah-Infrarot

Osram

Referent: Annette Burgmair, OSRAM GmbH

Hyperspektrale Bildgebung erfordert breitbandig emittierende Nah-Infrarot (NIR) Lichtquellen. Halogenlampen oder multi-LED Lösungen, wie sie im Allgemeinen eingesetzt werden, haben gewisse Einschränkungen, wie z.B. Größe, Lebensdauer, Wärmeentwicklung oder Komplexität.

NIR Breitband LEDs bieten eine Alternative mit diversen Vorteilen. Durch den Emissionsbereich von 650nm bis 1050nm wird die Probe nicht erhitzt wie bei konventioneller Beleuchtung (Halogen). LEDs bestechen durch kurze Schaltzeiten und „Instant On“. Im Vergleich zu Multi-LED Lösungen ist die Ansteuerung wesentlich einfacher, und das Spektrum homogener.

Der Vortrag stellt die Technologie existierender Breitband-NIR LEDs vor, und gibt einen Ausblick auf zukünftig mögliche Entwicklungen in Hinblick auf Strahlungsintensität, Effizienz und Spektralbereich. Typische und potentielle Anwendungen u.a. in der Lebensmittelindustrie, in der Landwirtschaft und im Consumerbereich werden diskutiert.

 

Hyperspektrale Apps für industrielle Anwendungen

Perception Park

Referent: Markus Burgstaller, Perception Park GmbH

Die Vibrationsspektroskopie basiert auf dem Prinzip, dass Moleküle verschiedene Wellenlängen des elektromagnetischen Spektrums in unterschiedlichem Grad absorbieren, reflektieren oder passieren lassen. Hyperspektralkameras liefern pro Ortspunkt ein Spektrum aus welchem ein chemischer Fingerabdruck des Materials erhoben werden kann.

Chemical Colour Imaging Methoden transformieren Hyperspektral Daten in Bild Streams. Diese Streams können vom Anwender konfiguriert werden, um gewünschte chemische Eigenschaften darzustellen und werden über Schnittstellen wie GigE Vision an Bildverarbeitungssysteme verteilt. Anwendungsgebiete: Recycling, Lebensmittelsicherheit, Qualitätskontrolle (z .B. Pharma, Food, Packaging), Farbmessung etc.

Eine Abstraktion von Hyperspektralkameras hin zu anwendungsspezifische Standardkameras gelingt durch Software-Apps. Vorkonfigurierte chemische und/oder physikalische Materialeigenschaften ermöglichen Inspektionsaufgaben weit über heutige Grenzen hinaus. Durch voreingestellte chemometrische Verarbeitung wird eine Selektivität nach dem Maßstab von wissenschaftlichen Methoden erreicht.

 

Fabric recycling with NIR hyperspectral cameras

Specim Spectral Imaging

Referent: Dr. Mathieu Marmion, Specim Spectral Imaging Ltd.

Recycling is in the air and textiles should also be recycled. However, to do so, a perfect identification of their fibers type is needed. Hyperspectral cameras offer here new possibilities. So far, recycling of fabrics is done manually, having inherent and significant issues, like 1) repeatability; 2) reproducibility; 3) hygiene; 4) speed; 5) accuracy and 6) cost.

Within this context, automated machine vision systems would be very useful, addressing all the previous mentioned issues. Material identification requires contactless sensors able to measure the chemical composition from a distance, where NIR hyperspectral cameras outperform.

We measured with such camera different types of fabrics, including synthetic ones (e.g. polyester), based on animal (e.g. wool) or plant (e.g. cotton) fibers.

Data were analyzed with a PLS-DA model. Results show that synthetic, animal and plant originated fibers could be sorted, regardless the color of the textile, including dark ones. We believe that those findings are of the most importance, opening a new industrial market, driven by new EU laws.

 

Multi- und hyperspektrale Bildverarbeitung für Anwendungen in Industrie, Biomedizin und dem täglichen Leben

Spectronet

Referent: Paul-Gerald Dittrich, Spectronet

Photonische Sensoren und digitale Bildverarbeitung sind bedeutende Schlüsselkomponenten, um Qualität zu messen, zu steuern und zu regeln. Um den wachsenden Erwartungen an die Qualität von Erzeugnissen und Dienstleistungen in Industrie, Biologie/Medizin, Umwelt, Sicherheit und Verwaltung zu entsprechen, stehen nunmehr Kameras mit photonischen Sensoren für die gleichzeitige Erfassung von geometrischen, kolorimetrischen und spektrometrische Informationen zur Verfügung. Diese Kameras werden als Multi-/Hyperspektralkameras benannt.

Mit dem Vortrag sollen neue Entwicklungen in der photonischen Messtechnik für die Qualitätssicherung mit multi- und hyperspektraler Bildverarbeitung systematisiert dargestellt und anschaulich erläutert werden. Auf ausgewählte multi- und hyperspektrale Bildverarbeitungssysteme, deren notwendige Komponenten (Beleuchtung, Optik, Sensoren, Schnittstellen, Computer und Software) und deren Anwendungen in Industrie, Biomedizin und täglichem Leben wird ausführlich eingegangen. Weiterhin erfolgt ein Ausblick auf zukünftige Entwicklungen in der photonischen Messtechnik für die Qualitätssicherung.

 

Hyperspektrale Bildgebung – Technologie, Anwendungen und Zukunft

STEMMER IMAGING

Referent: Gerhard Stanzel, STEMMER IMAGING

Die hyperspektrale Bildgebung ist neben den Themen Industrie 4.0, Embedded Vision und Deep Learning einer der aktuellen Trends in der Bildverarbeitung.

Die Kombination von Spektroskopie und Bildverarbeitung eröffnet neue Anwendungsfelder in der Bildverarbeitung. Chemische Informationen, die mittels Chemical Colour Imaging (CCI) „sichtbar“ gemacht werden können, ermöglichen die Erfassung von Daten, die mit herkömmlicher Bildverarbeitung nicht zu generieren wären. Neben der für hyperspektrale Anwendungen notwendigen Hardware werden Applikationen vorgestellt sowie Möglichkeiten der Technologie aufgezeigt.

 

Leistungsstarke SWIR-Kameras in der industriellen Bildverarbeitung und Prozesskontrolle

Xenics

Referent: Guido Deutz, Xenics N.V.

Kurzwellige Infrarot-(SWIR) Bilderfassung wird heute in großem Umfang in industriellen Märkten eingesetzt. Sie unterstützt integrierte Bildverarbeitungssysteme und ermöglicht oder erleichtert die Prozesskontrolle mit Effizienz und Zuverlässigkeit. In dieser Präsentation stellen wir den Einsatz von SWIR-Imaging im Bereich der industriellen Bildverarbeitung vor.

Die Veranstaltung konzentriert sich auf zwei Arten von SWIR-Kameras, Area-Scan und Line-Scan. Für jede dieser Kategorien stellen wir Ihnen unser Portfolio an Kameras und deren Entwicklung im Laufe der Jahre vor. Wir geben auch Beispiele für SWIR-Anwendungen in industriellen Märkten, insbesondere in den Bereichen Bildverarbeitung und Prozesskontrolle.

Im Zuge des technologischen Fortschritts entstehen schnell Anwendungen mit hohen Anforderungen an die Bilderfassung. Wir werden einige dieser Anforderungen erörtern, um Ihnen zu helfen, die Spezifikationen zu identifizieren, die für Ihre Anwendung entscheidend oder interessant sind. Außerdem werden die neuesten SWIR-Kameras von Xenics vorgestellt, die die diskutierten Anforderungen erfüllen können.

ZUKUNFTSTRENDS

 

Die Top-Trends der Bildverarbeitung

InVision

Referent: Dr. Peter Ebert, InVision Magazin

Die Möglichkeiten der Bildverarbeitung werden immer umfangreicher. Hier einen Überblick über die aktuellen Entwicklungen zu behalten wird immer schwerer. Dieser Vortrag gibt einen kurzen unabhängigen Überblick, welche Trends es wert sind, sie genauer zu betrachten.

 

Einblicke in die Entwicklung eines autonom fahrenden Rennwagens

munichmotorsport

Referent: David Dodel / Timo Socher, municHMotorsports e.V.

Das Formula Student Team der Hochschule München, municHMotorsport e.V., baut schon im dritten Jahr ein autonom fahrendes Elektroauto das auf eine Wahrnehmung setzt, die ausschließlich auf Kameras basiert. In diesem Vortrag berichten die Studenten über die Entwicklung des Fahrzeuges sowie die Erfahrungen aus der diesjährigen Rennserie.

 

Moderne Anwendungsentwicklung und Rapid Prototyping in CVB mit C++, .Net und Python

STEMMER IMAGING

Referent: Volker Gimple, STEMMER IMAGING AG

Die mit Common Vision Blox (CVB) 2019 releasten APIs für C++, die .Net Sprachen und Python erleichtern durch ihr konsequent objektorientiertes Design und die stimmige Einbettung in die jeweiligen Laufzeitumgebungen die Entwicklung auch komplexerer Bildverarbeitungsanwendungen mit hochsprachlichen Mitteln und bewährten Programmierpatterns sowohl auf der PC Plattform als auch in Embedded-Umgebungen wie ROS oder ähnlichen. Darüber hinaus begünstigen gerade die verschiedenen Python-Umgebungen und LINQPad Rapid Development - das schnelle und spielerische Austesten verschiedener Ansätze.

Das Design der drei neuen, sprachspezifischen APIs wird vergleichend dargestellt – Kenntnisse in mindestens einer der drei Sprachen sind hierbei von Vorteil. Dabei wird auf die verbesserten Möglichkeiten der Fehlersuche und die Anbindung an gängige Laufzeitbibliotheken (Qt, WPF, Windows Forms, NumPy) anhand praxisnaher Beispiele eingegangen.

 

Trends in der Bildverarbeitung in 2019 und darüber hinaus - wohin geht die Reise?

Teledyne DALSA

Referent: Christian Loeb, Teledyne DALSA Inc.

In den letzten Jahren hat sich in der Bildverarbeitung relativ wenig getan bezüglich Interfaces, obwohl in Consumer-PCs zunehmend modernste USB- und Ethernet-Anschlüsse verbaut werden. Höhere Geschwindigkeiten und Auflösungen erfordern aber Lösungen, die mehr Bandbreite bieten, um den Anforderungen der Industrie nachzukommen. Welche Optionen gibt es bereits jetzt und welche Technologien werden bald verfügbar sein? Flächensensoren werden aber nicht nur höhere Auflösungen und Bildraten bieten, Polarisation ist ein weiterer kommender Trend.

Wir werfen einen Blick auf die Sensor-Architektur hinter diesem Trend und zeigen auf, welche neuen Möglichkeiten sich damit dem Anwender in der industriellen Bildverarbeitung öffnen.

 

Vision Systeme der Zukunft – eine Kombination von Technologien

Teledyne DALSA

Referent: Patrick Menge, Teledyne DALSA Inc.

Der Machine-Vision-Markt wird getrieben von immer neuen Innovationen. Ziel dabei ist, Produktionsprozesse mit immer besser werdender Bildverarbeitungshardware und -software zu optimieren bzw. zu kombinieren um damit auch die Zahl der möglichen Anwendungen kontinuierlich erweitern zu können. Ein kurzer Überblick möglicher Szenarien.

 

Zeilenkameratechnologie - die nächste Generation

Teledyne DALSA

Referent: Andreas Lange, Teledyne DALSA Inc.

Zeilenkameras entwickeln sich ständig weiter, denn die Anforderungen in der Bildverarbeitung steigen. Multi-Feld-Technologie, bei der entweder das Bild zeitlich oder nach Spektralbereich aufgeteilt wird, ermöglicht es, in einem Scan gleichzeitig z.B. Hellfeld, Dunkelfeld und Gegenlicht aufzunehmen. Kombiniert man diese Technologie mit spezieller Beleuchtung, erhöht die Multi-Feld-Technologie die Erkennbarkeit von Merkmalen und verringert die Taktzeit.

Zeilensensoren für polarisiertes Licht werden zunehmend populär; mit ihnen inspiziert man Doppelbrechungen, Spannungen im Material, die Eigenschaften von Oberflächen und klassifiziert Materialien. Völlig neu entwickelt wurde eine "Super-Resolution" 32k TDI Zeilenkamera. Durch die dort verwendete "Pixel-Offset"-Technologie verbessert sich das Rauschverhalten. Dabei sind die relativ großen Pixel kompatibel zu existierenden Optiken. Fiberoptische Kabel sind inzwischen so ausgereift, dass sie problemlos in der Bildverarbeitung eingesetzt werden können; Zeilenraten von 300kHz und bald 600kHz sowie SWIR (Short-Wave Infrared) sind die neuesten Entwicklungen, durch deren Einsatz die Bildverarbeitung auch in der "Industrie 4.0" eine Schlüsselrolle spielen wird.

 

sCMOS cameras - what is the difference over CMOS

Vieworks

Referent: Janice Lee, Vieworks Co.,Ltd.

Unlike the previous existing sensors of CMOS and CCD, sCMOS is uniquely capable of providing simultaneous features such as a large field of view, high sensitivity and wide dynamic range.

Because each pixel of a CCD sensor is exposed at once and the photoelectrons are converted into signal at a common port, the speed of image acquisition is limited. More pixels that need to be transferred, the slower the total frame rate of the camera would be. However instead of waiting for an entire frame to complete its readout, sCMOS can exposure sensor rows that are digitized first. This technology allows rapid frame rates.

Moreover, while the other sensors suffer from image quality issues in low light conditions, sCMOS sensor has improved the performance of sensitivity and enables to capture high-quality images with low noise even in poor conditions. With these spectacular features, sCMOS sensor camera is the ideal camera for biometry, medical and scientific applications.

 

Machine Vision: Marktüberblick und Trends

VDMA

Referentin: Anne Wendel, VDMA Machine Vision Group

Die Bildverarbeitungsindustrie in Deutschland und Europa meldet seit Jahren Umsatzrekorde. Zwischen 2013 und 2017 ist der Umsatz durchschnittlich um 13 Prozent pro Jahr gewachsen. Innerhalb von zehn Jahren (2008 - 2017) hat sich der Umsatz der Branche verdoppelt. Alleine die deutsche Bildverarbeitungsindustrie hat 2017 einen neuen Rekordumsatz von 2,6 Milliarden Euro (plus 18 Prozent) erzielt, und im letzten Jahr diesen Rekordwert nochmals um 4% steigern können.

Der Vortrag gibt einen Überblick über die Entwicklung (Regionen / Länder und Abnehmerbranchen), über wichtige Branchentrends und -entwicklungen, sowohl für die Robotik (weltweit) als auch für die IBV-Industrie in Deutschland und Europa. Seit 1995 führt der VDMA in Deutschland jährlich Marktstudien zur industriellen Bildverarbeitung durch. Im Jahr 2003 übernahm der VDMA Fachverband Robotik + Automation die Statistische Abteilung der IFR (International Federation of Robotics - www.ifr.org).

GRUNDLAGEN

 

Lighting - a key enabler in machine vision applications

CCS

Referent: Matthias Dingjan, CCS Europe N.V.

Probably the most critical feature of a machine vision applications is lighting. Illuminating a target poorly, will cause the loss of data and productivity and result in profit loss. A professional lighting technique involves a qualified selection of a light source / lighting technique and its skilled placement with respect to the object and camera to be inspected.

 

Vision system validation

CEI

Referent: Rick Ragnini, CEI Components Express Inc.

How confident are you that your Vision system will operate without problems? The most underrated piece of the Vison System ... the cable ... needs complete performance validation to ensure the user does not need to make a support call.

This presentation will outline how cables in each of the Vision standards should be validated to ensure consumer confidence.

 

A deeper understanding of some of the complexities within LED lighting control

Gardasoft

The majority of lighting control solutions within machine vision applications are ‘plug and play’. However, there are some instances where a deeper understanding of lighting control is required.

This presentation explores some of the complex areas within lighting control and explains the approach taken in providing the solutions.

 

Get the glare out! New polarized sensors paired with LED lighting solutions

Metaphase

Polarization has become a hot trend in machine vision with the launch of Sony’s polarized sensor series with many camera manufacturers embracing the technology. While polarized sensors and cameras can help make polarization easy, you need more than a polarized sensor or camera to have a perfect polarized image.

Polarized lighting can make or break a polarized image. Techniques such as cross polarization and different lighting styles that help a user produce the best polarized image. We will go in depth how polarized lighting works and how it interacts with Sony’s polarized sensor.

In the presentation we will go in-depth on Sony’s Polarized sensors and best practices on paring Metaphase polarized LED illumination, and the application that can solved using polarization technology.

 

Key features of a quality machine vision optical filter

Midopt

Referent: Georgy Das, Midwest Optical Systems Inc.

Optical filters are critical components of machine vision systems. They’re used to maximize contrast, improve color, enhance subject recognition and control the light that’s reflected from the object being inspected. Learn more about the different filter types, what applications they’re best used for and the most important design features to look for in each. Not all machine vision filters are the same.

Learn how to reduce the effects of angular short-shifting. Discover the benefits of filters that emulate the bell-shaped spectral output curve of the LED illumination being used. And find out more about the importance of a high-quality inspection process that limits the possibility for imperfections and enhances system performance.

Plus, learn more about the latest advances in machine vision filters. SWIR (short-wave infrared) filters are designed to enhance the image quality of InGaAs camera technology and are useful for applications imaging from 900-2300nm. Wire-grid polarizers are effective in both visible and infrared ranging from 400-2000nm and have an operating temperature of 100 C per 1,000 hours.

 

Flüssiglinsen und deren Integration in OEM Systeme

Optotune

Referent: Mark Ventura, Optotune Switzerland AG

Sind Sie eingeschränkt wegen geringer Schärfentiefe? Prüfen Sie Objekte verschiedener Grösse oder mit unbekanntem Arbeitsabstand? Dann könnten fokusvariable Flüssiglinsen Ihre Lösung sein. Sie sind kompakt, zuverlässig und fokussieren über grosse Abstände innert Millisekunden.

Die Präsentation enthält einige Fallstudien und erläutert wie Flüssiglinsen mit Optiken von der Stange kombiniert und in ein System integriert werden. Ein besonderer Fokus liegt auf Treiberoptionen und kostenoptimierten Lösungen für OEMs.

 

Einfluss optischer Komponenten auf die Abbildungsleistung

Schneider Kreuznach

Referent: Steffen Mahler, Jos.Schneider Optische Werke GmbH

Neben dem Objektiv gibt es häufig noch weitere optische Komponenten im Strahlengang eines Bildverarbeitungssystems. Oft ist dies ein optischer Filter, der vor dem Objektiv angebracht ist, seltener ein Filter zwischen Objektiv und Sensor. Eine weitere Komponente kann ein Prisma oder Stahlteiler sein, z.B. für eine koaxiale Beleuchtung. Und zu guter Letzt besitzt auch der Sensor selbst entscheidende optische Komponenten wie das Abdeckglas und Mikrolinsen als Bestandteil jedes einzelnen Pixels.

Dabei ist es wichtig, dass alle Komponenten zueinander passen und in der richtigen Art und Weise zusammenspielen. So kann es entscheidend sein, ob der Filter vor dem Objektiv oder vor dem Sensor positioniert ist, ob das Objektiv für die Verwendung eines Strahlteilers ausgelegt ist und ob die Strahlcharakteristik des Objektivs mit den Mikrolinsen des Sensors harmoniert.

Nur wenn alle Komponenten sorgfältig aufeinander abgestimmt sind, wird das Ergebnis die Erwartungen an die Abbildungsleistung des Gesamtsystems erfüllen.

 

Optische 2D-Vermessung am Beispiel Stecker und Pins

STEMMER IMAGING

Referent: Lars Fermum, STEMMER IMAGING AG

Präzises, metrisches Messen von Bauteilen ist eine echte Herausforderung. Am Beispiel einer Vermessungsaufgabe eines Steckers mit Pinspitzen werden grundlegende Verfahren erklärt und auf verschiedene Probleme dieser Aufgabenstellung eingegangen.

Wie ist ein zweidimensional prüfendes Kamerasystem auszulegen und welche Optik- und Beleuchtungstechniken kommen zum Messen im Auflicht in Frage? Ein regelmäßiges Thema in dieser Diskussion ist die Wahl der Kamera und deren Auflösung. Mit welchen Software-Methoden kann gearbeitet werden? Ebenso wird auf Schwierigkeiten, wie Schärfentiefe, Parallaxe-Effekte und Materialeigenschaften des Bauteils eingegangen, die alle die Messgenauigkeit deutlich reduzieren können.

 

Moderne Technologien zur Vermessung am Beispiel Stecker und Pins

STEMMER IMAGING

Referent: Lars Fermum, STEMMER IMAGING AG

Neben dem klassischen Messen mit Flächenkamera und telezentrischer Optik bieten sich dem Bildverarbeiter auch moderne Bildverarbeitungstechnologien zur Vermessung von Bauteilen an. Wie funktioniert das Vermessen mittels „Shape-from Shading“ und welche Limitierungen gibt es hier?

Sehr häufig kommen bei Vermessungen von Pinspitzen zur Bilderzeugung Methoden wie Laser-Triangulation oder Streiflichtlinienprojektion zum Einsatz. Welche Vorzüge gegenüber 2D-Verfahren haben diese Ansätze? Was muss beim Thema Software-Auswertung beachtet werden? Welche Schwierigkeiten sind hier zur erwarten? Ein weiteres Thema des Vortrags ist die Erzeugung von 3D-Daten für Vermessungsaufgaben mit Hilfe des der Methode „Depth-from-Focus“ und den dazu benötigten Komponenten.

 

Intrinsische Kalibrierung von Laser-Linien-Sensoren

STEMMER IMAGING

Referent: Stefan Schwager, STEMMER IMAGING AG

Ein Verfahren zur intrinsischen Kalibrierung von Lichtschnitt-Sensoren wird vorgestellt. Es basiert auf einer Sammlung von Profilaufnahmen eines Kalibrierkörpers mit zufällig gewählten Positionen in der Laserebene. Die spezielle Form des Kalibrierkörpers gestattet die automatische Kompensation von Neigungs- und Verdrehungsfehlern des Kalibrierkörpers bei der Profilaufnahme. Wir stellen Hilfsmittel zur einfachen Generierung der Profile vor und machen Angaben zur erreichbaren Genauigkeit.

 

Kalibriermethoden und deren Anforderungen

STEMMER IMAGING

Referent: Maurice Lingenfelder, STEMMER IMAGING AG

Kalibrierungen sind ein wichtiger Bestandteil der Bildverarbeitung. Sie sind die Grundlage metrisch korrekter Messungen. Darüber hinaus kann durch geeignete Verfahren auch ein Bezug mehrerer Einzelsensoren zueinander bestimmt werden. Dabei ist es nicht immer einfach, den Überblick über die eigenen Anforderungen zu behalten.

Der Vortrag beschreibt die Unterschiede zwischen einer intrinsischen und extrinsischen Kalibrierung und zeigt in welchen Fällen eine Kalibrierung notwendig ist. Beispiele werden sowohl für 2D als auch 3D Anwendungen gezeigt.

 

Imaging without processing – recording image streams

STEMMER IMAGING

Referent: Jon Vickers, STEMMER IMAGING Ltd.

Through the history of machine vision, there has always been a demand to record images and there is a vertical industry that has grown up around this. With TV standard cameras it was not unusual to see video recordings on videotapes, but today’s formats are much more varied and higher bandwidth, so we assume a PC-basis for the recording.

The applications are many, from human training to offline inspection by machines and archiving of data, but the core specification is always bandwidth. Image size and format have an influence, but the real question is: “How much data?”

The machine vision world has always been a three-way battle between cameras, acquisition technology and PC performance and these all impact on a recording system. Newer technology raises the performance and this means that what was once a difficult, custom application is now relatively easy.

In this talk we will look at the limitations and possibilities, and how to create an efficient, high-speed and reliable recording system. There are strategies to help in high-speed, high-bandwidth and multi-camera recording systems and these will be explored through this presentation.

 

„Das sieht man doch“ – Lösungsstrategien zur Auswahl der idealen Beleuchtung

STEMMER IMAGING

Referent: Lars Fermum, STEMMER IMAGING AG

Gerne unterschätzt und doch oftmals der Schlüssel zum Erfolg ist die Auswahl der passenden Beleuchtung. Ziel und Zweck ist es, wiederholbar und zuverlässig hohe Kontraste zu erzeugen, um eine robuste Softwareauswertung zu erreichen. Leider gestaltet sich die Bildverarbeitung nicht immer so einfach, da nicht das Objekt selbst, sondern das vom Bauteil reflektierte Licht ausgewertet wird. Die Materialeigenschaften von Bauteilen können jedoch tückisch sein und dem Anwender viele Schwierigkeiten bereiten.

Welche Beleuchtungstechnologien gibt es, welche Strategien helfen bei glänzenden Objekten? Wie wirkt sich die Farbe des Objekts aus? Neben den makroskopischen Formeigenschaften der Bauteile werden gerne die mikroskopischen Formeigenschaften vergessen. Insbesondere Schliffbilder, Texturen und weitere Oberflächenvariationen, wie Beschichtungen etc. machen dem Anwender das Leben schwer. Welche Ansätze gibt es hier? Schnelle Rezepte aus der Beleuchtungsküche, die gelingen.

 

Polarisation des Lichts – Verborgenes sichtbar machen

STEMMER IMAGING

Referent: Jan Sandvoss, STEMMER IMAGING AG

Schon gewusst? Das Licht wird von uns Menschen hauptsächlich durch seine Intensität und Wellenlänge wahrgenommen. Das Licht besitzt jedoch eine weitere, meist nicht bekannte Eigenschaft, in der es sich unterscheiden lässt: die Schwingungsebene bzw. die Polarisation. Während das menschliche Auge und gängige Farb- und Monochromkameras sehr gut Farb- und Intensitätsunterschiede erkennen können, ist die Polarisation nicht direkt sichtbar. Abhilfe bringen seit geraumer Zeit Polarisationskameras, welche die dritte „Dimension“ des Lichts zum Vorschein bringen und für die industrielle Bildverarbeitung nutzbar machen.

In diesem Vortrag sollen folgende Fragen beantwortet werden: Was ist Polarisation? Welche Arten von Polarisation gibt es und wie lassen sich diese beschreiben? Mit welcher Sensortechnologie lässt sich die Polarisation messen? Wo kann Polarisation Bildverarbeitungsaufgaben erleichtern und gar erst ermöglichen?

 

Woran kann es liegen? Fehlersuche in Bildverarbeitungsapplikationen

STEMMER IMAGING

Referent: Lothar Burzan, STEMMER IMAGING AG

Was tun, wenn nichts wie geplant funktioniert? Bildverarbeitungssysteme werden immer komplexer und vielschichtiger. Probleme können schwer eingeordnet werden, da Fehlerursache und Symptome oft weit auseinanderliegen. Dieser Vortrag zeigt Methoden der Fehlersuche und nennt Möglichkeiten Fehler zu vermeiden oder frühzeitig zu erkennen.

 

Hardware independence as a strategic choice

STEMMER IMAGING

Referent: Jon Vickers, STEMMER IMAGING Ltd.

The choice of a software basis for a project has implications for the future and evolution of the project. The speed of development in camera hardware is faster than ever – regular choices now include Gig E Vision (1000 Base-T, N-BaseT and 10GigE), USB3 Vision (USB 3.1 gen1 and USB 3.1 gen2), Cameralink, CoaXPress and various proprietary GenICam Transport Layers (GenTL). With the speed of development comes a race between hardware manufacturers – which is the best choice now… and which in the future? More than just cameras, what if the processing platform could change from a Windows PC to a Linux PC to an ARM-based embedded system? Inter-operability in all cases means that the core application can stay the same while the hardware choices are flexible. In this presentation, the dangers, opportunities and capabilities are explored, with a view to reducing risk and making the most of the rapid developments in hardware.