Vom 22. bis 29.09.2023 ist der Truck zu Gast am Heinrich-Böll-Gymnasium in Troisdorf. Seine Zielsetzung: Schülerinnen und Schüler durch das Erleben und Ausprobieren von Zukunftstechnologien für Bildungs- und Berufswege im MINT-Bereich (Mathematik, Informatik, Naturwissenschaft, Technik) zu gewinnen. Das Projekt wird gefördert durch die Regionaldirektionen NRW, Hessen und Berlin-Brandenburg der Bundesagentur für Arbeit. Stiftung und Regionaldirektionen arbeiten Hand in Hand, um Jugendlichen bestmögliche Berufsorientierung zu bieten und dem wachsenden MINT-Fachkräftemangel entgegenzuwirken. Der TouchTomorrow-Truck ist konzipiert für 8. und 11. Klassen. Moderiert wird der Besuch von vier „MINT Coaches“ (speziell geschulte Naturwissenschaftler*innen), die mit den Schülerinnen und Schülern einen Dialog auf Augenhöhe führen. Dabei wird niemand zu MINT überredet. TouchTomorrow ist ein inspirierendes Informations- und Interaktionsangebot, das auch sprachlich oder gesellschaftswissenschaftlich interessierte Schülerinnen und Schüler anspricht und ihnen neue Perspektiven eröffnen kann – insbesondere im Hinblick auf die zunehmend fachübergreifenden Formen der Zusammenarbeit in wechselnden Teams. Die Schülerinnen und Schüler arbeiten in Kleingruppen rotierend an verschiedenen Zukunfts-Themenstationen aus Naturwissenschaft und Technik. Diese reichen von Virtual und Augmented Reality Learning über Robotik bis hin zu Gedankensteuerung (z. B. im Kontext von Medizintechnik). Durch die dialog- und diskursorientierte Vermittlung erhalten die Jugendlichen ein individuelles Verständnis dafür, dass MINT-Bildung bereits eine wesentliche Grundlage der heutigen, aber vor allem der in Zukunft weiter digitalisierten Lebens- und Arbeitswelt ist. Der große Vorteil für Schulen: Ein außerschulischer Lernort auf dem eigenen Schulhof. Marco Alfter, Geschäftsführer Dr. Hans Riegel-Stiftung: „Der TouchTomorrow-Truck weist eine zentrale Innovation auf: Wir vermitteln nicht nur einmalig naturwissenschaftlich technische Inhalte und Zukunfts-themen, sondern stellen diese in einen konkreten, langfristig angelegten Kontext zu Ausbildungs- und Berufs-perspektiven. Die Begeisterung und das initiale Interesse für MINT-Themen sind das Fundament für eine intensive, anhaltende Beschäftigung in diesem für die deutsche Wirtschaft so wichtigen Feld – etwa in der Wahl der Leistungskurse oder für die Ausbildungswege nach der Schule.TouchTomorrow-Roboter-NAOWir freuen uns sehr über die enge Zusammenarbeit mit der Bundesagentur für Arbeit, die das Projekt über drei Regionaldirektionen fördert. Die Expert*innen der lokalen Arbeitsagenturen knüpfen mit ihrer Berufsberatung nahtlos an die Zukunftsimpulse von TouchTomorrow an und sind damit eine echte Bereicherung für das Konzept. Uns ist es wichtig, dass es nicht beim einmaligen WOW-Effekt des Trucks bleibt, sondern dass interessierte Jugendliche dranbleiben. Deshalb erhalten alle Schülerinnen und Schüler ein RFID-Speichermedium, mit dem sie im Truck Infos sammeln, sie zu Hause wieder abrufen und ihre Interessen Schwerpunkte auf www.touchtomorrow.de vertiefen können. Auch hier arbeiten wir vernetzt mit den zahlreichen Angeboten der BA.“
via https://ift.tt/CwLEjH0
via https://ift.tt/CwLEjH0
Soft robotics represents a groundbreaking advancement in the field, standing apart from the rigid structures people usually associate with traditional robotic systems. Learn more about recent advances in this field and the many benefits.<a href="https://robots-blog.com/wp-content/uploads/image-118-768x1024.png">image-118</a><strong>The Era of Soft Robots</strong>Nature and biology heavily influence soft robots, giving them the flexibility and <a href="https://www.nature.com/articles/s41467-023-36819-z">ability to adapt to their surroundings</a>. For example, some commercially available soft robotic designs mimic fish, octopi and worms.Innovative materials such as shape-memory alloys, <a href="https://www.mclpcb.com/blog/flex-rigid-flex-pcbs/">dielectric elastomers and liquid crystal elastomers</a> are critical to soft robotics. These materials change their properties in response to various stimuli. Grippers on soft robots, made of high-tech elastomers, mold to the target object’s shape. This flexibility ensures a gentler and more adaptable grip than rigid robots, making them ideal for tasks like fruit picking. Soft robots also use self-healing materials made from shape-memory alloys. These alloys allow the robots to <a href="https://www.sciencedirect.com/topics/engineering/shape-memory-alloy">repair themselves after damage</a>, increasing their operational life span and reducing maintenance needs.As technology progresses, scientists outfit soft robots with sensory systems, enhancing their ability to understand their surroundings. For example, soft pressure sensors can tell a robot if it’s gripping too hard. Some researchers are even developing soft robots capable of working in swarms, <a href="https://cei.ece.cornell.edu/research-2/soft-robots/">emulating the behavior of fish</a>, bees and birds. 3D printing, a form of advanced manufacturing, has revolutionized how scientists design and produce intricate soft robotic parts, driving innovation and accessibility in this sector. Some robots incorporate the strengths of both rigid and soft systems, resulting in hybrids that offer improved strength, precision and flexibility. Instead of traditional motors, there’s a growing trend towards fluidic actuation. Robots use liquids or air for movement, making their movements more natural. <strong>Soft Robotics in Medicine</strong>Robotics is revolutionizing various aspects of modern medicine. In rehabilitation and physiotherapy, <a href="https://biodesign.seas.harvard.edu/soft-exosuits">soft robotic exosuits or exoskeletons</a> support patients recovering from strokes, spinal cord injuries or surgeries. These devices gently guide and assist patients, helping them regain motor functions, relearn movements and restore strength.In assistive medical devices, soft wearable robots are emerging to help those with mobility issues. The Wyss Institute at Harvard University <a href="https://wyss.harvard.edu/technology/soft-robotic-glove/">developed a soft, wearable robotic glove</a> that assists individuals with hand disabilities in performing day-to-day activities. This glove, made from soft elastomers, can assist in gripping objects, potentially improving rehabilitation outcomes.Scientists at the City University of Hong Kong developed a soft robot capable of maneuvering inside the stomach and intestine. The robot can change shape and size, facilitating better imaging and <a href="https://www.cityu.edu.hk/research/stories/2022/03/10/nanofiber-based-biodegradable-millirobot-can-release-different-drugs-targeted-positions-intestines">allowing localized drug delivery or biopsies</a>.A collaboration between Boston Children’s Hospital and Harvard University resulted in a soft robotic sleeve that surgeons can place around the heart. This device helps the heart pump more efficiently in patients with heart failure, providing a <a href="https://pubmed.ncbi.nlm.nih.gov/28100834/">potential alternative to organ transplants</a>.In diagnostics, soft robots <a href="https://gastro.org/news/and-the-winner-of…
This media is not supported in your browser
VIEW IN TELEGRAM
Service Robot at @nakoyashi.cgn Sushi Restaurant. Find the latest News on robots, drones, AI, robotic toys and gadgets at robots-blog.com. If you want to see your product featured on our Blog, Instagram, Facebook, Twitter or our other sites, contact us. #robots #robot #omgrobots #roboter #robotic #automation #mycollection #collector #robotsblog #collection #botsofinstagram #bot #robotics #robotik #gadget #gadgets #toy #toys #drone #robotsofinstagram #instabots #photooftheday #picoftheday #followforfollow #instadaily #werbung
Roboverse Reply, das auf die Integration von Robotik-Lösungen spezialisierte Unternehmen der weltweit agierenden Reply Gruppe, leitet das von der EU finanzierte Projekt „Fluently“. Das Projekt zielt darauf ab, eine Plattform zu schaffen, die eine echte soziale Zusammenarbeit zwischen Menschen und Robotern in industriellen Umgebungen ermöglicht, indem sie die neuesten Fortschritte in der KI-basierten Entscheidungsfindung nutzt.image-120Ziel dieses dreijährigen Projekts ist es, eine Plattform sowie ein tragbares Gerät für Industriearbeiter und Roboter zu entwickeln, die den Maschinen ermöglichen, Sprache, Inhalt und Tonfall genauer zu interpretieren und Gesten automatisch in Roboteranweisungen umzuwandeln. Weiterer Bestandteil des Projekts ist der Aufbau des Trainingszentrums „Fluently RoboGym“, in dem Fabrikarbeiter und Roboter trainieren können, im Industrieprozess reibungslos zu interagieren.Praktische Anwendungsfälle für die Mensch-Roboter-Kollaboration beziehen sich auf für die europäische Wirtschaft wichtige Wertschöpfungsketten, die hohe physische Belastungen und hohe Anforderungen an die menschliche Erfahrung sowie Kompetenz mit sich bringen. Dies betrifft z. B. die Demontage und das Recycling von Lithiumzellenbatterien, Prüf- und Montageprozesse in der Luft- und Raumfahrtindustrie sowie die Aufarbeitung komplexer Industrieteile mittels additiver Fertigung.An dem Projekt sind zweiundzwanzig Partner beteiligt, darunter die Schweizer Universität SUPSI. Anna Valente, Leiterin des SUPSI-Labors für Automation, Robotik und Maschinen und Mitglied des Schweizer Wissenschaftsrats, fügt hinzu: „Das Projekt Fluently zielt darauf ab, Roboter zu Teamplayern auszubilden, die menschliche Arbeiter bestmöglich unterstützen. Als wissenschaftliche und technische Koordinatoren wollten wir mit Fluently einen wichtigen Beitrag zur Weiterentwicklung der Mensch-Roboter-Kollaboration leisten und gleichzeitig eine Best Practice und einen Proof of Concept (PoC) für integrativere sowie interaktive Ökosysteme schaffen.“Das Projekt hat das erste Entwicklungsjahr erfolgreich abgeschlossen und erste Meilensteine erreicht. Das Team konzentriert sich aktuell auf drei Hauptarbeitspakete:Design des Fluently Interfaces, bestehend aus dem Design des Fluently Geräts, Softwaretests und Integration in tragbare Steuerungs- und Robotersysteme;Entwicklung von KI-Modellen, einschließlich Architekturdesign, Edge Computing, Training von RoboGym-Modellen und Unterstützung von Mensch-Roboter-Teamarbeit;RoboGym-Design und -Implementierung, d. h. Festlegung der RoboGym-Spezifikationen und -Ziele sowie Entwicklung und Aufbau von drei Trainingsbereichen.Das Fluently-System stützt sich auf innovative Technologien, um eine nahtlose Kommunikation zwischen Menschen und Robotern sicherzustellen. Die Verarbeitung natürlicher Sprache, Hardware für die freihändige Steuerung von Robotern aus der Ferne, Monitoring physiologischer Signale und Eye-Tracking werden im Rahmen dieses Projekts erforscht und integriert. „Wir sind stolz darauf, das innovative Fluently-Projekt zu koordinieren, das Partner aus Wissenschaft und Industrie zusammenbringt, um eine empathische Roboterplattform zu entwickeln, die Sprachinhalte, Tonfall und Gesten interpretieren kann und Industrieroboter für jedes Qualifikationsprofil einsetzbar macht“, kommentiert Filippo Rizzante, CTO von Reply. „Roboter, die mit Fluently ausgestattet sind, werden den Menschen bei physischen wie kognitiven Aufgaben unterstützen, lernen und Erfahrungen mit den menschlichen Teamkollegen sammeln.“
via https://ift.tt/vBRYVJj
via https://ift.tt/vBRYVJj
Reply
Roboverse Reply
Roboverse Reply ist auf Integrationsszenarien in den Bereichen <strong>Robotik, Reality Capture und Mixed Reality spezialisiert, in denen Cloud- oder On-Premise-Infrastrukturen unternehmensfähige Lösungen erfordern.
Bochum, October 16, 2023 – United Robotics Group (URG) and the Fraunhofer Institute for Manufacturing Engineering and Automation (IPA) have signed a licensing agreement as part of their newly concluded technology partnership. The agreement covers the distribution and further development of the KEVIN® laboratory robot, which will be manufactured and distributed by URG in the future. With this strategic step, URG is expanding its presence in the life science sector.
In addition, both partners benefit from valuable synergies for the future-oriented automation of laboratories – the research and innovation expertise of Fraunhofer IPA optimally complements the robotics expertise of URG. The laboratory robot KEVIN® was developed by the Department of Laboratory Automation and Bioproduction Technology at Fraunhofer IPA and brought to prototype stage with first test customers worldwide. Under the umbrella of URG, KEVIN® will now go into series production. For this purpose, the company is acquiring a corresponding licence for the use and further development of the robot’s hardware and software.image-121From left to right:Andreas Traube, Head of Department Laboratory automation and bioproduction technology, Prof. Thomas Bauernhansl, Director of Fraunhofer IPA, Thomas Linkenheil, Co-CEO of URG, Sarah Ostertag, UX & Industrial Design Lead and Product Management and Tobias Brode, Head of Business Development Lab Automation
SOURCE: FRAUNHOFER IPA/PHOTO: RAINER BEZ
We are pleased to be able to create new, promising perspectives for laboratory automation with our robotics solutions as part of the collaboration. This strengthens our presence in the life science sector – and enables us to effectively address societal challenges such as the shortage of skilled labour and demographic change,“ explains Thomas Linkenheil, Co-CEO of URG.Mobile laboratory robot
KEVIN® is an autonomous, mobile laboratory robot. It automates processes and can be
flexibly and intuitively integrated into laboratory infrastructures. The robot takes over
repetitive routine tasks. For example, it transports microtitre plates and racks in SBS format, such as samples or consumables for refilling. It can also supply systems with pipette tips.
Using KEVIN® around the clock increases efficiency in the laboratory. Given the shortage of skilled workers, it is particularly important to reduce the workload of staff, allowing them to focus on value-added activities.„With the new agreement, we have added a decisive boost to the further development and commersialisation of KEVIN®. Automation plays an important role in the life science sector. It enables laboratories to respond flexibly to different requirements. This makes it all the more important to jointly develop suitable solutions for this sector,“ says Thomas Bauernhansl, Director of the Fraunhofer IPA.Increase in personnel for URG
In the course of the technological partnership between Fraunhofer IPA and URG and the transfer of the licensing rights to KEVIN®, there will also be personnel changes. Sarah Ostertag and Tobias Brode will join the United Robotics Group. In the future, Sarah Ostertag will work as UX & Industrial Design Lead + Product Management and Tobias Brode as Head of Business Development Lab Automation at URG. Both will accompany KEVIN® from the initial idea to the market-ready series product and thus strengthen company’s expertise in the long term.
via https://ift.tt/icyNFwr
In addition, both partners benefit from valuable synergies for the future-oriented automation of laboratories – the research and innovation expertise of Fraunhofer IPA optimally complements the robotics expertise of URG. The laboratory robot KEVIN® was developed by the Department of Laboratory Automation and Bioproduction Technology at Fraunhofer IPA and brought to prototype stage with first test customers worldwide. Under the umbrella of URG, KEVIN® will now go into series production. For this purpose, the company is acquiring a corresponding licence for the use and further development of the robot’s hardware and software.image-121From left to right:Andreas Traube, Head of Department Laboratory automation and bioproduction technology, Prof. Thomas Bauernhansl, Director of Fraunhofer IPA, Thomas Linkenheil, Co-CEO of URG, Sarah Ostertag, UX & Industrial Design Lead and Product Management and Tobias Brode, Head of Business Development Lab Automation
SOURCE: FRAUNHOFER IPA/PHOTO: RAINER BEZ
We are pleased to be able to create new, promising perspectives for laboratory automation with our robotics solutions as part of the collaboration. This strengthens our presence in the life science sector – and enables us to effectively address societal challenges such as the shortage of skilled labour and demographic change,“ explains Thomas Linkenheil, Co-CEO of URG.Mobile laboratory robot
KEVIN® is an autonomous, mobile laboratory robot. It automates processes and can be
flexibly and intuitively integrated into laboratory infrastructures. The robot takes over
repetitive routine tasks. For example, it transports microtitre plates and racks in SBS format, such as samples or consumables for refilling. It can also supply systems with pipette tips.
Using KEVIN® around the clock increases efficiency in the laboratory. Given the shortage of skilled workers, it is particularly important to reduce the workload of staff, allowing them to focus on value-added activities.„With the new agreement, we have added a decisive boost to the further development and commersialisation of KEVIN®. Automation plays an important role in the life science sector. It enables laboratories to respond flexibly to different requirements. This makes it all the more important to jointly develop suitable solutions for this sector,“ says Thomas Bauernhansl, Director of the Fraunhofer IPA.Increase in personnel for URG
In the course of the technological partnership between Fraunhofer IPA and URG and the transfer of the licensing rights to KEVIN®, there will also be personnel changes. Sarah Ostertag and Tobias Brode will join the United Robotics Group. In the future, Sarah Ostertag will work as UX & Industrial Design Lead + Product Management and Tobias Brode as Head of Business Development Lab Automation at URG. Both will accompany KEVIN® from the initial idea to the market-ready series product and thus strengthen company’s expertise in the long term.
via https://ift.tt/icyNFwr
Bochum, 16. Oktober 2023 – Die United Robotics Group (URG) und das Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) haben im Rahmen ihrer neu geschlossenen technologischen Partnerschaft eine Lizenzvereinbarung unterzeichnet. Inhalt der Vereinbarung ist der Vertrieb und die Weiterentwicklung des Laborroboters KEVIN®, der zukünftig von der URG produziert und vertrieben wird. Mit diesem strategischen Schritt baut die URG ihre Präsenz im Bereich Life Science aus.image-122(V. l. n. r.:) Andreas Traube, Leiter der Abteilung Laborautomatisierung und Bioproduktionstechnik, Prof. Thomas Bauernhansl, Institutsleiter des
Fraunhofer IPA, Thomas Linkenheil, Co-CEO der URG, Sarah Ostertag, UX & Industrial Design Lead and Product Management und Tobias Brode, Head
of Business Development Lab Automation.
Quelle: Fraunhofer IPA/Foto: Rainer BezZudem erschließen beide Partner wertvolle Synergien für die zukunftsweisende Automatisierung von Laboren – die Forschungs- und Innovationskompetenz des Fraunhofer IPA ergänzt die Robotik-Expertise der URG optimal. Der Laborroboter KEVIN® wurde von der Abteilung für Laborautomatisierung und Bioproduktionstechnik des Fraunhofer IPA entwickelt und mit ersten Testkunden weltweit zur Prototypenreife gebracht. Unter dem Dach der URG soll KEVIN® nun in Serienproduktion gehen. Hierzu erwirbt das Unternehmen eine entsprechende Lizenz zur Nutzung und Weiterentwicklung der Hard- und Software des Roboters.„Wir freuen uns darüber, dass wir im Rahmen der Zusammenarbeit durch unsere Robotik-Lösungen neue, vielversprechende Perspektiven für die Laborautomation schaffen können. Damit stärken wir unsere Präsenz im Life Science-Bereich – und können gesellschaftlichen Herausforderungen wie dem Fachkräftemangel und dem demografischen Wandel wirksam begegnen,“ erklärt Thomas Linkenheil, Co-CEO der URG. Mobiler LaborroboterKEVIN® ist ein autonomer, mobiler Laborroboter. Er automatisiert Prozesse und lässt sich flexibel und intuitiv in Laborinfrastrukturen integrieren. Der Roboter übernimmt repetitive Routineaufgaben. So befördert er Mikrotiterplatten und Racks im SBS-Format, wie etwa Proben oder Consumables zum Nachfüllen. Darüber hinaus kann er Anlagen mit Pipettenspitzen beliefern.Mit einem Einsatz von KEVIN® rund um die Uhr steigt die Effizienz im Labor. Angesichts des Fachkräftemangels ist eine Entlastung der Belegschaft besonders wichtig, denn so kann sie sich auf besonders wertschöpfende Tätigkeiten konzentrieren.„Mit der neuen Vereinbarung haben wir der weiteren Entwicklung und Vermarktung von KEVIN® einen entscheidenden Schub verliehen. Automatisierung spielt im Life-Science-Bereich eine zentrale Rolle. Labore können dadurch auf unterschiedliche Bedarfe flexibel reagieren. Umso wichtiger ist es, gemeinsam passende Lösungen für diesen Sektor zu entwickeln“, kommentiert Thomas Bauernhansl, Institutsleiter des Fraunhofer IPA.Personeller Zuwachs für die URGIm Zuge der technologischen Partnerschaft zwischen dem Fraunhofer IPA und der URG sowie der Übertragung der Lizenzrechte an KEVIN® kommt es auch zu personellen Veränderungen. So werden Sarah Ostertag und Tobias Brode zur United Robotics Group wechseln. In der URG werden Sarah Ostertag künftig als UX & Industrial Design Lead + Product Management und Tobias Brode als Head of Business Development Lab Automation tätig sein. Beide begleiten KEVIN® von der ersten Idee an bis zum marktreifen Serienprodukt und stärken somit nachhaltig die Expertise im Unternehmen.
via https://ift.tt/1K2BIbv
Fraunhofer IPA, Thomas Linkenheil, Co-CEO der URG, Sarah Ostertag, UX & Industrial Design Lead and Product Management und Tobias Brode, Head
of Business Development Lab Automation.
Quelle: Fraunhofer IPA/Foto: Rainer BezZudem erschließen beide Partner wertvolle Synergien für die zukunftsweisende Automatisierung von Laboren – die Forschungs- und Innovationskompetenz des Fraunhofer IPA ergänzt die Robotik-Expertise der URG optimal. Der Laborroboter KEVIN® wurde von der Abteilung für Laborautomatisierung und Bioproduktionstechnik des Fraunhofer IPA entwickelt und mit ersten Testkunden weltweit zur Prototypenreife gebracht. Unter dem Dach der URG soll KEVIN® nun in Serienproduktion gehen. Hierzu erwirbt das Unternehmen eine entsprechende Lizenz zur Nutzung und Weiterentwicklung der Hard- und Software des Roboters.„Wir freuen uns darüber, dass wir im Rahmen der Zusammenarbeit durch unsere Robotik-Lösungen neue, vielversprechende Perspektiven für die Laborautomation schaffen können. Damit stärken wir unsere Präsenz im Life Science-Bereich – und können gesellschaftlichen Herausforderungen wie dem Fachkräftemangel und dem demografischen Wandel wirksam begegnen,“ erklärt Thomas Linkenheil, Co-CEO der URG. Mobiler LaborroboterKEVIN® ist ein autonomer, mobiler Laborroboter. Er automatisiert Prozesse und lässt sich flexibel und intuitiv in Laborinfrastrukturen integrieren. Der Roboter übernimmt repetitive Routineaufgaben. So befördert er Mikrotiterplatten und Racks im SBS-Format, wie etwa Proben oder Consumables zum Nachfüllen. Darüber hinaus kann er Anlagen mit Pipettenspitzen beliefern.Mit einem Einsatz von KEVIN® rund um die Uhr steigt die Effizienz im Labor. Angesichts des Fachkräftemangels ist eine Entlastung der Belegschaft besonders wichtig, denn so kann sie sich auf besonders wertschöpfende Tätigkeiten konzentrieren.„Mit der neuen Vereinbarung haben wir der weiteren Entwicklung und Vermarktung von KEVIN® einen entscheidenden Schub verliehen. Automatisierung spielt im Life-Science-Bereich eine zentrale Rolle. Labore können dadurch auf unterschiedliche Bedarfe flexibel reagieren. Umso wichtiger ist es, gemeinsam passende Lösungen für diesen Sektor zu entwickeln“, kommentiert Thomas Bauernhansl, Institutsleiter des Fraunhofer IPA.Personeller Zuwachs für die URGIm Zuge der technologischen Partnerschaft zwischen dem Fraunhofer IPA und der URG sowie der Übertragung der Lizenzrechte an KEVIN® kommt es auch zu personellen Veränderungen. So werden Sarah Ostertag und Tobias Brode zur United Robotics Group wechseln. In der URG werden Sarah Ostertag künftig als UX & Industrial Design Lead + Product Management und Tobias Brode als Head of Business Development Lab Automation tätig sein. Beide begleiten KEVIN® von der ersten Idee an bis zum marktreifen Serienprodukt und stärken somit nachhaltig die Expertise im Unternehmen.
via https://ift.tt/1K2BIbv
Im Rahmen einer neuen Webinar-Reihe zeigt der Robotikexperte und Softwarehersteller ArtiMinds Robotics, wie produzierende Unternehmen komplexe Prozesse im Bereich Kabelmontage und Leitungssatzfertigung roboter-basiert automatisieren können.Karlsruhe, 17.10.23 – Als Experte in Sachen „Advanced Robotics“ bietet ArtiMinds am 8. und 21. November sowie 5. Dezember kostenfreie Webinare zum Fokusthema „Roboterautomatisierung im Bereich Kabel- und Leitungssatzmontage“ an.image-123Kraftgeregeltes Stecken der formlabilen Kabel in der Leitungssatzmontage; Quelle: ArtiMinds Robotics GmbHDas Handling und die automatische Montage von biegeschlaffen Teilen wie Leitungen, Kabeln und Steckern sind technisch anspruchsvoll und hochkomplex. In der Fertigungsindustrie müssen große Toleranzen ausgeglichen, hohe Qualitätsanforderungen erfüllt und eine Vielzahl von Varianten flexibel unterstützt werden.So sind trotz steigendem Automatisierungsdruck das Konfektionieren von Kabeln, die Kabelbaumfertigung oder Leitungssatzmontage, z.B. in der Automobilindustrie oder im Bereich weiße Ware, immer noch Handarbeit.image-124Freihängende Kabel, die sich in alle Richtungen verwinden könnnen, lassen sich mittels Laserscanner treffsicher detektieren und picken; Quelle: ArtiMinds Robotics GmbHRoboterzellen bieten flexiblere Automatisierungsmöglichkeiten als der Sondermaschinenbau. Jedoch sind elastische Leitungen, die sich in beliebige Richtungen verwinden können, für Roboter schwer zu lokalisieren und zu greifen. Auch die Montage bzw. das Stecken der Bauteile stellen aufgrund ihrer Biegeschlaffheit eine große Herausforderung dar. Sensor-adaptive Roboterkonzepte spielen daher eine Schlüsselrolle, um den Automatisierungsgrad zu erhöhen und die Wettbewerbsfähigkeit der Unternehmen zu erhalten.Dr.-Ing. Andreas Hermann, Webinar-Referent und Senior Team Leader Advanced Robotics bei ArtiMinds erklärt: „Mit innovativen Konzepten und einer Kombination aus Robotern und den richtigen Sensoren lassen sich z.B. Varianzen bei Kabel- oder Steckerpositionen problemlos ausgleichen. Sensor-adaptive Robotik ist die ideale Lösung, um formlabiler Kabel, Leitungen oder Stecker zu bearbeiten und Prozesse wie die Leitungssatzproduktion und -montage flexibel und zugleich wirtschaftlich rentabel zu automatisieren.“image-125In der Kabelbaumkonfektionierung müssen dünne und flexible Leitungen gegriffen und montiert werden. ArtiMinds setzt hier auf einen laser-basierten Ansatz; Quelle: ArtiMinds Robotics GmbHDas Webinar zeigt die neuesten Trends, Herausforderungen und robotergestützte Automatisierungslösungen zur Bearbeitung biegeschlaffer Teile und beleuchtet die Voraussetzungen, um sensoradaptive Roboteranwendungen robust und wirtschaftlich umsetzen zu können. Die Teilnahme ist kostenfrei. Alle Termine sowie die Anmeldung finden Interessenten auf https://www.artiminds.com/de/events/webinar-smartes-kabelhandling-verarbeitung/
via https://ift.tt/xP1piH9
via https://ift.tt/xP1piH9
This media is not supported in your browser
VIEW IN TELEGRAM
Find the latest News on robots, drones, AI, robotic toys and gadgets at robots-blog.com. If you want to see your product featured on our Blog, Instagram, Facebook, Twitter or our other sites, contact us. #robots #robot #omgrobots #roboter #robotic #automation #mycollection #collector #robotsblog #collection #botsofinstagram #bot #robotics #robotik #gadget #gadgets #toy #toys #drone #robotsofinstagram #instabots #photooftheday #picoftheday #followforfollow #instadaily #werbung
This media is not supported in your browser
VIEW IN TELEGRAM
Find the latest News on robots, drones, AI, robotic toys and gadgets at robots-blog.com. If you want to see your product featured on our Blog, Instagram, Facebook, Twitter or our other sites, contact us. #robots #robot #omgrobots #roboter #robotic #automation #mycollection #collector #robotsblog #collection #botsofinstagram #bot #robotics #robotik #gadget #gadgets #toy #toys #drone #robotsofinstagram #instabots #photooftheday #picoftheday #followforfollow #instadaily #werbung
In der heutigen globalisierten Wirtschaft steht Deutschland vor einer der größten Herausforderungen des 21. Jahrhunderts: dem Fachkräftemangel. Diese problematische Situation wirkt sich auf nahezu alle Branchen aus und bedroht das Wirtschaftswachstum und die Innovationskraft des Landes. Eine Lösung für die Industrie kann der Einsatz von Robotern sein. Doch wie effektiv ist dieser Ansatz und welche Auswirkungen hat der Fachkräftemangel?<a href="https://robots-blog.com/wp-content/uploads/2023_Fachkraeftemangel-Engpassberufe.png">2023_Fachkraeftemangel-Engpassberufe</a><a href="https://robots-blog.com/wp-content/uploads/2023_Fachkraefte-Automatisierung-Mechatronik.png">2023_Fachkraefte-Automatisierung-Mechatronik</a>Die Abbildung 1 der Bundesagentur für Arbeit macht es deutlich: Deutschland benötigt mehr Fachkräfte. Es ist davon auszugehen, dass sich die Zahlen im laufenden Jahr (2023) weiter verschlechtert haben. Die Abbildung 2 zeigt die Problematik speziell hinsichtlich Fachkräfte im Bereich Mechatronik und Automatisierungstechnik. Quasi bundesweit zählen sie zu den Engpassberufen. Und dies spüren deutsche Industrieunternehmen deutlich.<strong>Der deutsche Fachkräftemangel: Ein ernstzunehmendes Problem</strong>Der Fachkräftemangel in Deutschland ist in den letzten Jahren zu einem brennenden Thema geworden. Wie Abbildung 2 zeigt, ist dieses Problem besonders in technischen und ingenieurwissenschaftlichen Berufen ausgeprägt und deshalb im industriellen und produzierenden Umfeld von großer Bedeutung. Die Gründe für das Fehlen der Arbeitskräfte sind vielfältig:Demografischer Wandel: Deutschland erlebt eine alternde Bevölkerung, was zur Folge hat, dass viele erfahrene Fachkräfte in den Ruhestand gehen und weniger junge Menschen in den Arbeitsmarkt eintreten. Gerade geburtenstarke Jahrgänge werden in den nächsten Jahren in Rente gehen, was eine Lücke hinterlässt.Bildungssystem: Die Nachfrage nach qualifizierten Arbeitskräften übersteigt oft das Angebot. Dies liegt zum Teil an Herausforderungen im deutschen Bildungssystem und der Ausbildung von Fachkräften, aber auch an mangelnden attraktiven Weiterbildungsangeboten auf dem Arbeitsmarkt.Konkurrenz aus dem Ausland: Fachkräfte haben heute die Möglichkeit, global nach den besten Arbeitsmöglichkeiten zu suchen. Dies führt zu einem verstärkten Wettbewerb um Talente.<strong>Die Folgen für die deutsche Wirtschaft</strong>Produktionsverzögerungen: In der Industrie führt der Mangel an qualifizierten Mitarbeitern, zu Produktionsverzögerungen und steigenden Kosten.Innovationsrückstand: Ohne ausreichendes Fachpersonal geraten deutsche Unternehmen ins Hintertreffen, wenn es darum geht, innovative Technologien zu entwickeln und zu implementieren.Wachstumsbremse: Deutschland steht im internationalen Wettbewerb um Investitionen und Aufträge. Fehlende Fachkräfte verringern die Produktivität und gefährden die Wettbewerbsfähigkeit.<strong>Besonders betroffene Branchen</strong>In der Industrie sind fast alle Branchen vom Fachkräftemangel betroffen. Eine Branche muss jedoch besonders kämpfen: die Automobil- und Zulieferindustrie. Eines der größten Standbeine der deutschen Wirtschaft versucht im internationalen Vergleich wettbewerbsfähig zu bleiben: Digitalisierung statt Mechanik. Themengebiete die zurzeit als utopisch oder fern in der Zukunft erscheinen, werden immer relevanter, wie bspw. autonomes Fahren oder innovative Antriebsarten. Einer der größten Konkurrenten auf diesem Markt ist China, die zwar weniger hochwertige, dafür aber kostengünstige Alternativen bieten. Die Antwort vom größtem deutschen Automobilkonzern VW war eindeutig: im Jahr 2022 wurden 18,9 Milliarden Euro für Forschung und Entwicklung (F&E) ausgegeben. Doch damit diese Ausgaben auch Wirkung zeigen, braucht es fachkundiges Personal, welches Digitalisierung und Automatisierung als Chance und nicht als Bedrohung sieht.<strong>Robotik als Teil der Lösung</strong>Wie kann Robotik nun helfen? Der Einsatz von Industrierobotern und Cobots eröffnet Möglichkeiten, Freiräume für Mitarbeiter…
<em>After a series of successful Kickstarter Campaigns, Geek Club and CircuitMess launch their most ambitious project yet – a NASA-approved AI-powered scale model Replica of the Perseverance Space Rover </em>Zagreb, Croatia – October 31st, 2023. – Today, <a href="https://geekclub.com/">Geek Club</a> and <a href="http://www.circuitmess.com">CircuitMess</a> announced their <a href="https://www.kickstarter.com/projects/geeekclub/nasa-perseverance-mars-rover?ref=etkd0u&token=8d6c95eb">Kickstarter space exploration campaign</a> designed to teach children eleven and up about engineering, AI, and coding by assembling the iconic NASA Perseverance Space Rover, as well as a series of other NASA-inspired space vehicles.<a href="https://robots-blog.com/wp-content/uploads/Rover-image-6-1024x576.jpg">Rover-image-6</a>This new space-themed line of DIY educational products was born out of both companies‘ shared vision to aim for the stars and to take their fans with them. <a href="https://www.kickstarter.com/projects/geeekclub/nasa-perseverance-mars-rover?ref=etkd0u&token=8d6c95eb">The Kickstarter campaign</a> starts today, October 31st, and will last for 35 days.<a href="https://robots-blog.com/wp-content/uploads/Nicolas-_-Albert-image-4-1024x683.jpeg">Nicolas-_-Albert-image-4</a>The collaboration was a logical union of the two companies. Both companies create educational STEM DIY kits that are targeted towards kids and adults. Both share the same mission: To make learning STEM skills easy and fun.<em>“For decades, the team and I have been crafting gadgets for geeks always inspired by space exploration,”</em> says Nicolas Deladerrière, co-founder of Geek Club.<em> “Inspired by Mars exploration, we’ve studied thousands of official documents and blueprints to craft an authentic Mars exploration experience. The product comes alive thanks to microchips, electromotors, and artificial intelligence. Imagine simulating your own Mars mission right from your desk!”</em><a href="https://robots-blog.com/wp-content/uploads/Rover-image-17-1024x683.jpeg">Rover-image-17</a><a href="https://robots-blog.com/wp-content/uploads/Nicolas-image-3-1024x683.jpg">Nicolas-image-3</a><a href="https://robots-blog.com/wp-content/uploads/Rover-image-15-1024x683.jpeg">Rover-image-15</a><a href="https://robots-blog.com/wp-content/uploads/Rover-image-10-1024x683.jpeg">Rover-image-10</a><a href="https://robots-blog.com/wp-content/uploads/Rover-_-Controller-image-1-1024x683.jpeg">Rover-_-Controller-image-1</a><a href="https://robots-blog.com/wp-content/uploads/Rover-image-14-1024x653.jpg">Rover-image-14</a><a href="https://robots-blog.com/wp-content/uploads/Development-image-11-1024x683.jpeg">Development-image-11</a><a href="https://robots-blog.com/wp-content/uploads/Development-image-10-1024x683.jpeg">Development-image-10</a>Geek Club is an American company that specializes in designing and producing DIY robotics kits that educate their users on soldering and electronics. They focus primarily on space exploration and robotics, all to make learning engineering skills easy and fun for kids, adults, and everyone in between.<em>“We have successfully delivered seven Kickstarter campaigns, raised more than 2.5 million dollars, and made hundreds of thousands of geeks all around the world extremely happy,” </em>says Albert Gajšak, CEO of CircuitMess. <em>“In a universe where space and technology are constantly growing, we’re here to ensure you’re never left behind.”</em>The new product line consists of five unique space-themed products:1. The Perseverance Space Rover KitThis kit is designed to be an educational journey into programming, electronics, robotics, and AI. The model comes with four electromotors, six wheels, a control system with a dual-core Espressif ESP32 processor, Wi-Fi, and Bluetooth connectivity, a sample collection arm based on the real thing with two servo motors, a Wi-Fi-connected remote controller, and support for programming in Python or via a Scratch-inspired drag-and-drop visual coding environment.<a hr…
Qviro Revolutionizes Robotics Buying ExperienceQviro, one of the leading robotics platforms, introduces a groundbreaking marketplace, offering unparalleled transparency and choice. Users can effortlessly compare the full robotics market and access a vast selection of 211 cobots. image-126The platform ensures transparent pricing, allowing buyers access to all cobot prices on Qviro. For added assistance, it provides an average cobot price of €27,158. Additionally, Qviro includes 400+ user reviews for informed decisions.In the cobot category, Universal Robots leads with a 4.6 rating from over 41 user reviews. Their products excel in ease of use and integration, favored by engineers and enthusiasts.For budget-conscious buyers, Elephant Robotics and Wlkata offer educational robots starting at $599. They provide cost-effective solutions for educational and hobbyist projects. Find Elephant Robotics‘ products at Elephant Robotics Products and Wlkata’s at Wlkata Products.Sven De Donder, Co-CEO of Qviro, said, „Our user base in Europe and North America is growing exponentially due to unmatched transparency.“image-127Qviro transforms the robotics buying experience, offering an all-in-one solution for enthusiasts and professionals. With diverse options, transparent pricing, and a supportive user community, Qviro meets all your robotics needs.About Qviro:Qviro is a Belgium-based startup that is revolutionising the procurement process of industrial technology such as robots and machines through digitization. The company’s review platform, Qviro.com, provides factories and engineers with valuable insights and customer feedback to make confident purchasing decisions. At the same time, it offers vendors market intelligence and data to help them better understand their potential customers. As a SaaS platform, Qviro is dedicated to providing exceptional customer experiences and innovative solutions that drive growth and progress in the industry. To learn more about Qviro, visit www.Qviro.com.
via https://ift.tt/Kx0ApjM
via https://ift.tt/Kx0ApjM
QVIRO
2024's Top Cobots: Reviews, Pricing, & Comparison of 278+ Models
Find out how companies use for applications like pick and place, machine loading, and palletizing in the automotive or electronics sector.
<strong>Gesture recognition with intelligent camera</strong>I am passionate about technology and robotics. Here in my own blog, I am always taking on new tasks. But I have hardly ever worked with image processing. However, a colleague’s LEGO® MINDSTORMS® robot, which can recognize the rock, paper or scissors gestures of a hand with several different sensors, gave me an idea: „The robot should be able to ’see‘.“ Until now, the respective gesture had to be made at a very specific point in front of the robot in order to be reliably recognized. Several sensors were needed for this, which made the system inflexible and dampened the joy of playing. Can image processing solve this task more „elegantly“?
<a href="https://robots-blog.com/wp-content/uploads/image-141-1024x542.png">image-141</a>Rock-Paper-Scissors with Robot Inventor by <a href="https://www.youtube.com/@SeshanBrothers">Seshan Brothers</a>. The robot which inspired me for this roject<strong>From the idea to implementation</strong>In my search for a suitable camera, I came across <a href="https://de.ids-imaging.com/ids-nxt-benefits.html">IDS NXT</a> – a complete system for the use of intelligent image processing. It fulfilled all my requirements and, thanks to artificial intelligence, much more besides pure gesture recognition. My interest was woken. Especially because the evaluation of the images and the communication of the results took place directly on or through the camera – without an additional PC! In addition, the IDS NXT Experience Kit came with all the components needed to start using the application immediately – without any prior knowledge of AI.I took the idea further and began to develop a robot that would play the game „Rock, Paper, Scissors“ in the future – with a process similar to that in the classical sense: The (human) player is asked to perform one of the familiar gestures (scissors, stone, paper) in front of the camera. The virtual opponent has already randomly determined his gesture at this point. The move is evaluated in real time and the winner is displayed.<a href="https://robots-blog.com/wp-content/uploads/image-142-1024x683.png">image-142</a><strong>The first step: Gesture recognition by means of image processing</strong>But until then, some intermediate steps were necessary. I began by implementing gesture recognition using image processing – new territory for me as a robotics fan. However, with the help of IDS lighthouse – a cloud-based AI vision studio – this was easier to realize than expected. Here, ideas evolve into complete applications. For this purpose, neural networks are trained by application images with the necessary product knowledge – such as in this case the individual gestures from different perspectives – and packaged into a suitable application workflow.The training process was super easy, and I just used IDS Lighthouse’s step-by-step wizard after taking several hundred pictures of my hands using rock, scissor, or paper gestures from different angles against different backgrounds. The first trained AI was able to reliably recognize the gestures directly. This works for both left- and right-handers with a recognition rate of approx. 95%. Probabilities are returned for the labels „Rock“, „Paper“, „Scissor“, or „Nothing“. A satisfactory result. But what happens now with the data obtained?<a href="https://robots-blog.com/wp-content/uploads/image-143-796x1024.png">image-143</a><strong>Further processing</strong>The further processing of the recognized gestures could be done by means of a specially created vision app. For this, the captured image of the respective gesture – after evaluation by the AI – must be passed on to the app. The latter „knows“ the rules of the game and can thus decide which gesture beats another. It then determines the winner. In the first stage of development, the app will also simulate the opponent. All this is currently in the making and will be implemented in the next step to become a „Rock, Paper, Scissors“-playing robot.<strong>From play to everyday…
<a href="https://robots-blog.com/wp-content/uploads/image-141-1024x542.png">image-141</a>Rock-Paper-Scissors with Robot Inventor by <a href="https://www.youtube.com/@SeshanBrothers">Seshan Brothers</a>. The robot which inspired me for this roject<strong>From the idea to implementation</strong>In my search for a suitable camera, I came across <a href="https://de.ids-imaging.com/ids-nxt-benefits.html">IDS NXT</a> – a complete system for the use of intelligent image processing. It fulfilled all my requirements and, thanks to artificial intelligence, much more besides pure gesture recognition. My interest was woken. Especially because the evaluation of the images and the communication of the results took place directly on or through the camera – without an additional PC! In addition, the IDS NXT Experience Kit came with all the components needed to start using the application immediately – without any prior knowledge of AI.I took the idea further and began to develop a robot that would play the game „Rock, Paper, Scissors“ in the future – with a process similar to that in the classical sense: The (human) player is asked to perform one of the familiar gestures (scissors, stone, paper) in front of the camera. The virtual opponent has already randomly determined his gesture at this point. The move is evaluated in real time and the winner is displayed.<a href="https://robots-blog.com/wp-content/uploads/image-142-1024x683.png">image-142</a><strong>The first step: Gesture recognition by means of image processing</strong>But until then, some intermediate steps were necessary. I began by implementing gesture recognition using image processing – new territory for me as a robotics fan. However, with the help of IDS lighthouse – a cloud-based AI vision studio – this was easier to realize than expected. Here, ideas evolve into complete applications. For this purpose, neural networks are trained by application images with the necessary product knowledge – such as in this case the individual gestures from different perspectives – and packaged into a suitable application workflow.The training process was super easy, and I just used IDS Lighthouse’s step-by-step wizard after taking several hundred pictures of my hands using rock, scissor, or paper gestures from different angles against different backgrounds. The first trained AI was able to reliably recognize the gestures directly. This works for both left- and right-handers with a recognition rate of approx. 95%. Probabilities are returned for the labels „Rock“, „Paper“, „Scissor“, or „Nothing“. A satisfactory result. But what happens now with the data obtained?<a href="https://robots-blog.com/wp-content/uploads/image-143-796x1024.png">image-143</a><strong>Further processing</strong>The further processing of the recognized gestures could be done by means of a specially created vision app. For this, the captured image of the respective gesture – after evaluation by the AI – must be passed on to the app. The latter „knows“ the rules of the game and can thus decide which gesture beats another. It then determines the winner. In the first stage of development, the app will also simulate the opponent. All this is currently in the making and will be implemented in the next step to become a „Rock, Paper, Scissors“-playing robot.<strong>From play to everyday…
Mit der Produktneuheit Smart Robots Pro bietet fischertechnik ein spannendes Komplettpaket, das nicht nur kreatives Bauen fördert, sondern auch Programmierkenntnisse vermittelt. Das Set wurde für Kinder ab acht Jahren entwickelt und ist seit September im Handel erhältlich. Das fischertechnik Set Smart Robots Pro enthält alles, was junge Technikbegeisterte brauchen, um zwölf faszinierende Modelle zu bauen, zu programmieren und zu steuern. Egal, ob es sich um den Fahrroboter mit Hinderniserkennung, das Karussell mit Blinklichtern, die Temperaturregelung mit Ventilator oder die Alarmanlage handelt – mit dem fischertechnik Smart Robots Pro können Programmierkenntnisse auf- und ausgebaut werden. Bild-1Ein Highlight des Konstruktionsbausets ist der BT Smart Controller. Dieser Controller verfügt unter anderem über vier Eingänge für digitale oder analoge Sensoren sowie zwei Ausgänge für Motoren oder Lampen. Um die Programmierung der Modelle anschaulich und leicht verständlich zu gestalten, kann Smart Robots Pro mit der ROBO PRO Coding Software verwendet werden, die kostenlos zum Download in den jeweiligen App Stores bereitsteht. Diese Software ermöglicht es den jungen Entwicklerinnen und Entwicklern, ihre Modelle mühelos grafisch zu programmieren und zu steuern. Das didaktische Begleitmaterial, das über die E Learning-Plattform verfügbar ist, unterstützt den Lernprozess der Kinder und erklärt auf leicht verständliche Weise die Grund lagen der Programmierung. Das Set ist nicht nur ein Spielzeug, sondern ein Bildungswerkzeug, das Spaß und Lernen miteinander verbindet. Es fördert die Kreativität, das Problemlösungsdenken und die technische Kompetenz junger Menschen. Gleichzeitig bietet es eine unterhaltsame Möglichkeit, die Programmierkenntnisse zu erlernen. Bild-2„Wir freuen uns, mit Smart Robots Pro ein innovatives Produkt auf den Markt zu bringen, das die nächste Generation von Technikenthusiasten inspirieren wird“, sagt Marc Schrag, fischertechnik Vertriebsleiter für Deutschland, Österreich und die Schweiz. Smart Robots Pro ist seit September erhältlich (199,99 Euro, UVP) und verspricht stundenlangen Spielspaß und Lernen zugleich. Weitere Informationen und Produktbilder sind auf der fischertechnik Website zu finden unter www.fischertechnik.de.
via https://ift.tt/7gZLeaW
via https://ift.tt/7gZLeaW
New class of edge AI industrial cameras allows AI overlays in live video streams
73914_IDS_NXT_malibu_industrial-camera-artificial-intelligence_3814x2126_INTIDS NXT malibu marks a new class of intelligent industrial cameras that act as edge devices and generate AI overlays in live video streams. For the new camera series, IDS Imaging Development Systems has collaborated with Ambarella, leading developer of visual AI products, making consumer technology available for demanding applications in industrial quality. It features Ambarella’s CVflow® AI vision system on chip and takes full advantage of the SoC’s advanced image processing and on-camera AI capabilities. Consequently, Image analysis can be performed at high speed (>25fps) and displayed as live overlays in compressed video streams via the RTSP protocol for end devices.Thanks to the SoC’s integrated image signal processor (ISP), the information captured by the light-sensitive onsemi AR0521 image sensor is processed directly on the camera and accelerated by its integrated hardware. The camera also offers helpful automatic features, such as brightness, noise and colour correction, which significantly improve image quality.„With IDS NXT malibu, we have developed an industrial camera that can analyse images in real time and incorporate results directly into video streams,” explained Kai Hartmann, Product Innovation Manager at IDS. “The combination of on-camera AI with compression and streaming is a novelty in the industrial setting, opening up new application scenarios for intelligent image processing.“These on-camera capabilities were made possible through close collaboration between IDS and Ambarella, leveraging the companies’ strengths in industrial camera and consumer technology. „We are proud to work with IDS, a leading company in industrial image processing,” said Jerome Gigot, senior director of marketing at Ambarella. “The IDS NXT malibu represents a new class of industrial-grade edge AI cameras, achieving fast inference times and high image quality via our CVflow AI vision SoC.“IDS NXT malibu has entered series production. The camera is part of the IDS NXT all-in-one AI system. Optimally coordinated components – from the camera to the AI vision studio – accompany the entire workflow. This includes the acquisition of images and their labelling, through to the training of a neural network and its execution on the IDS NXT series of cameras.
via https://ift.tt/h42zlKI
73914_IDS_NXT_malibu_industrial-camera-artificial-intelligence_3814x2126_INTIDS NXT malibu marks a new class of intelligent industrial cameras that act as edge devices and generate AI overlays in live video streams. For the new camera series, IDS Imaging Development Systems has collaborated with Ambarella, leading developer of visual AI products, making consumer technology available for demanding applications in industrial quality. It features Ambarella’s CVflow® AI vision system on chip and takes full advantage of the SoC’s advanced image processing and on-camera AI capabilities. Consequently, Image analysis can be performed at high speed (>25fps) and displayed as live overlays in compressed video streams via the RTSP protocol for end devices.Thanks to the SoC’s integrated image signal processor (ISP), the information captured by the light-sensitive onsemi AR0521 image sensor is processed directly on the camera and accelerated by its integrated hardware. The camera also offers helpful automatic features, such as brightness, noise and colour correction, which significantly improve image quality.„With IDS NXT malibu, we have developed an industrial camera that can analyse images in real time and incorporate results directly into video streams,” explained Kai Hartmann, Product Innovation Manager at IDS. “The combination of on-camera AI with compression and streaming is a novelty in the industrial setting, opening up new application scenarios for intelligent image processing.“These on-camera capabilities were made possible through close collaboration between IDS and Ambarella, leveraging the companies’ strengths in industrial camera and consumer technology. „We are proud to work with IDS, a leading company in industrial image processing,” said Jerome Gigot, senior director of marketing at Ambarella. “The IDS NXT malibu represents a new class of industrial-grade edge AI cameras, achieving fast inference times and high image quality via our CVflow AI vision SoC.“IDS NXT malibu has entered series production. The camera is part of the IDS NXT all-in-one AI system. Optimally coordinated components – from the camera to the AI vision studio – accompany the entire workflow. This includes the acquisition of images and their labelling, through to the training of a neural network and its execution on the IDS NXT series of cameras.
via https://ift.tt/h42zlKI
Ids-Imaging
IDS NXT - Image analysis with AI | IDS
Find the latest News on robots, drones, AI, robotic toys and gadgets at robots-blog.com. If you want to see your product featured on our Blog, Instagram, Facebook, Twitter or our other sites, contact us. #robots #robot #omgrobots #roboter #robotic #automation #mycollection #collector #robotsblog #collection #botsofinstagram #bot #robotics #robotik #gadget #gadgets #toy #toys #drone #robotsofinstagram #instabots #photooftheday #picoftheday #followforfollow #instadaily #werbung via Instagram https://instagr.am/p/CzgaHxjIS-2/