Künstliche Intelligenz (KI)

9 Produkte


  • Google Coral USB Accelerator

    Google Google Coral USB Accelerator

    Der Coral USB Accelerator fügt Ihrem System einen Edge-TPU-Coprozessor hinzu und ermöglicht High-Speed-Inferenzen durch maschinelles Lernen auf einer Vielzahl von Systemen, indem er einfach an einen USB-Port angeschlossen wird. Features Unterstütztes Host-Betriebssystem: Debian Linux, macOS, Windows 10 Kompatibel mit Raspberry Pi-Boards Unterstütztes Framework: TensorFlow Lite Führt High-Speed-ML-Inferenzen durch Der integrierte Edge TPU-Coprozessor kann 4 Billionen Operationen (Tera-Operationen) pro Sekunde (TOPS) ausführen, wobei 0,5 Watt für jede TOPS (2 TOPS pro Watt) verbraucht werden. Beispielsweise kann es hochmoderne mobile Vision-Modelle wie MobileNet v2 mit fast 400 FPS auf energieeffiziente Weise ausführen. Unterstützt alle wichtigen Plattformen Verbindet sich über USB mit jedem System, auf dem Debian Linux (einschließlich Raspberry Pi), macOS oder Windows 10 ausgeführt wird. Unterstützt TensorFlow Lite Modelle müssen nicht von Grund auf neu erstellt werden. TensorFlow Lite-Modelle können für die Ausführung auf der Edge-TPU kompiliert werden. Unterstützt AutoML Vision Edge Mit AutoML Vision Edge können Sie ganz einfach schnelle, hochpräzise benutzerdefinierte Bildklassifizierungsmodelle erstellen und auf Ihrem Gerät bereitstellen. Technische Daten ML Accelerator Google Edge TPU Coprozessor:4 TOPS (int8); 2 TOPS pro Watt Anschluss USB 3.0 Typ-C (Daten/Stromversorgung) Abmessungen 65 x 30 mm Downloads/Dokumentation Datasheet Get started with the USB Accelerator Model compatibility on the Edge TPU Edge TPU inferencing overview Run multiple models with multiple Edge TPUs Pipeline a model with multiple Edge TPUs PyCoral API (Python) Libcoral API (C++) Libedgetpu API (C++) Edge TPU compiler Pre-compiled models All software downloads

    € 89,95

    Mitglieder € 80,96

  • ESP32-S3-BOX-3

    Espressif ESP32-S3-BOX-3

    Nicht auf Lager

    Die ESP32-S3-BOX-3 basiert auf Espressifs ESP32-S3 Wi-Fi + Bluetooth 5 (LE) SoC mit KI-Beschleunigungsfunktionen. Zusätzlich zu den 512 KB SRAM des ESP32-S3 verfügt die ESP32-S3-BOX-3 über 16 MB Quad Flash und 16 MB Octal PSRAM. Auf der ESP32-S3-BOX-3 läuft Espressifs eigenes Spracherkennungs-Framework ESP-SR, das dem Anwender einen Offline-KI-Sprachassistenten zur Verfügung stellt. Es bietet Fernfeld-Sprachinteraktion, kontinuierliche Erkennung, Aufwachunterbrechung und die Fähigkeit, über 200 anpassbare Befehlswörter zu erkennen. BOX-3 kann mit Hilfe fortschrittlicher AIGC-Entwicklungsplattformen wie OpenAI auch in einen Online-KI-Chatbot umgewandelt werden. Basierend auf dem leistungsstarken ESP32-S3 SoC bietet BOX-3 Entwicklern eine sofort einsatzbereite Lösung zur Erstellung von Edge AI- und HMI-Anwendungen. Die fortschrittlichen Funktionen und Möglichkeiten der BOX-3 machen sie zu einer idealen Wahl für diejenigen in der IIoT-Industrie, die sich Industrie 4.0 zu eigen machen und traditionelle Fabrikbetriebssysteme umgestalten wollen. Die ESP32-S3-BOX-3 ist die Haupteinheit, die durch das ESP32-S3-WROOM-1 Modul betrieben wird, das 2,4 GHz Wi-Fi + Bluetooth 5 (LE) Wireless-Fähigkeit sowie KI-Beschleunigungsfunktionen bietet. Zusätzlich zu den 512 KB SRAM, die vom ESP32-S3 SoC bereitgestellt werden, verfügt das Modul über 16 MB Quad-Flash und 16 MB Octal PSRAM. Das Board ist mit einem 2,4-Zoll-SPI-Touchscreen mit 320 x 240 Pixeln (der "rote Kreis" unterstützt Touch), zwei digitalen Mikrofonen, einem Lautsprecher, einem 3-Achsen-Gyroskop, einem 3-Achsen-Beschleunigungsmesser, einem Typ-C-Anschluss für Stromversorgung und Download/Debug, einem High-Density-PCIe-Anschluss, der Hardware-Erweiterungen ermöglicht, sowie drei Funktionstasten ausgestattet. Features ESP32-S3 WiFi + Bluetooth 5 (LE) Eingebauter 512 KB SRAM ESP32-S3-WROOM-1 16 MB Quad flash 16 MB Octal PSRAM Lieferumfang ESP32-S3-BOX-3 Einheit ESP32-S3-BOX-3 Sensor ESP32-S3-BOX-3 Dock ESP32-S3-BOX-3 Halterung ESP32-S3-BOX-3 Bread RGB-LED-Modul und Dupont-Kabel USB-C Kabel Downloads GitHub Videos Unboxing The Next-generation Open-Source AIoT Kit

    Nicht auf Lager

    € 84,95

    Mitglieder € 76,46

  • NVIDIA Jetson Nano Developer Kit

    Nvidia NVIDIA Jetson Nano-Entwicklerkit (B01)

    Sind Sie bereit, mit der Entwicklung von Anwendungen für künstliche Intelligenz (KI) zu beginnen? Das NVIDIA Jetson Nano Developer Kit macht die Leistungsfähigkeit moderner KI für Macher, Entwickler und Studenten zugänglich. Wenn Sie an NVIDIA denken, denken Sie wahrscheinlich zu Recht an Grafikkarten und GPUs. Die Erfolgsbilanz von Nvidia garantiert, dass der Jetson Nano über genügend Leistung verfügt, um selbst die anspruchsvollsten Aufgaben zu bewältigen. Das NVIDIA Jetson Nano Developer Kit ist mit dem JetPack SDK von Nvidia kompatibel und ermöglicht die Bildklassifizierung und Objekterkennung in vielen Anwendungen. Anwendungen Das NVIDIA Jetson Nano Developer Kit kann mehrere neuronale Netze parallel ausführen für Anwendungen wie: Bildklassifizierung Segmentierung Objekterkennung Sprachverarbeitung Spezifikationen GPU 128 Kern Maxwell CPU Quad-Core ARM A57 mit 1,43 GHz Erinnerung 4 GB 64-Bit LPDDR4 25,6 GB/s Lagerung microSD (nicht im Lieferumfang enthalten) Videokodierung 4K@30 | 4x 1080p @ 30 | 9x 720p @ 30 (H.264/H.265) Videodekodierung 4K@60 | 2x 4K @ 30 | 8x 1080p @ 30 | 18x 720p @ 30 (H.264/H.265) Kamera 1 x MIPI CSI-2 DPHY-Spuren Konnektivität Gigabit-Ethernet, M.2 Key E Anzeige HDMI 2.0 und eDP 1.4 USB 4x USB 3.0, USB 2.0 Micro-B Schnittstellen GPIO, I²C, I²S, SPI, UART Maße 100 x 80 x 29 mm Inbegriffen NVIDIA Jetson Nano-Modul und Trägerplatine Kleine Papierkarte mit Schnellstart- und Supportinformationen Gefalteter Papierständer Downloads JetPack SDK Dokumentation . Tutorials Online Kurs Wiki

    € 229,00

    Mitglieder € 206,10

  • Fast ausverkauft HuskyLens AI Camera met Silicone Case

    HuskyLens AI Kamera

    Benötigen Sie eine einfache KI-Kamera, um Ihre Projekte zu verbessern? Das intuitive Design der HuskyLens AI-Kamera ermöglicht es dem Benutzer, verschiedene Aspekte der Kamera durch einfaches Drücken von Tasten zu steuern. Sie können das Lernen neuer Objekte starten und stoppen und sogar den Algorithmus vom Gerät aus wechseln. Um die Notwendigkeit, eine Verbindung zu einem PC herzustellen, noch weiter zu reduzieren, verfügt die HuskyLens AI-Kamera über ein 2-Zoll-Display, sodass Sie in Echtzeit sehen können, was vor sich geht. Spezifikationen Prozessor: Kendryte K210 Bildsensor: OV2640 (2,0-Megapixel-Kamera) Versorgungsspannung: 3,3 ~ 5,0 V Stromverbrauch (TYP): 320 mA bei 3,3 V, 230 mA bei 5,0 V (Gesichtserkennungsmodus; 80 % Hintergrundbeleuchtung; Fülllicht aus) Verbindungsschnittstelle: UART, I²C Display: 2,0-Zoll-IPS-Bildschirm mit einer Auflösung von 320 x 240 Integrierte Algorithmen: Gesichtserkennung, Objektverfolgung, Objekterkennung, Linienverfolgung, Farberkennung, Tag-Erkennung Abmessungen: 52 x 44,5 mm Inbegriffen 1x HuskyLens-Motherboard 1x M3-Schraube 1x M3 Muttern 1x kleine Montagehalterung 1x Erhöhungshalterung 1x Schwerkraft-4-Pin-Sensorkabel

    € 89,95

    Mitglieder € 80,96

  •  -20% M5Stack UnitV K210 AI Camera for Edge Computing (OV7740)

    M5Stack M5Stack UnitV K210 KI-Kamera für Edge Computing (OV7740)

    Merkmale Dual-Core 64-Bit RISC-V RV64IMAFDC (RV64GC) CPU / 400 MHz (normal) Duale unabhängige FPU mit doppelter Präzision 8 MB On-Chip-SRAM mit 64 Bit Breite Neuronaler Netzwerkprozessor (KPU) / 0,8 Tops Feldprogrammierbares IO-Array (FPIOA) AES, SHA256-Beschleuniger Direct Memory Access Controller (DMAC) Micropython-Unterstützung Unterstützung der Firmware-Verschlüsselung Onboard-Hardware: Blitz: 16M Kamera: OV7740 2x Knöpfe Statusanzeige-LED Externer Speicher: TF-Karte/Micro SD Schnittstelle: HY2.0/kompatibel mit GROVE Anwendungen Gesichtserkennung/-erkennung Objekterkennung/-klassifizierung Ermitteln Sie die Größe und Koordinaten des Ziels in Echtzeit Erhalten Sie den Typ des erkannten Ziels in Echtzeit Formerkennung, Videorecorder Inbegriffen 1x UNIT-V (einschließlich 20 cm 4P-Kabel und USB-C-Kabel)

    € 34,95€ 27,95

    Mitglieder identisch

  •  -21%Fast ausverkauft M5Stack UnitV2 AI Camera for Edge Computing

    M5Stack M5Stack UnitV2 KI-Kamera für Edge Computing

    1 auf Lager

    Merkmale Sigmastar SSD202D Dual Cortex-A7 1,2 GHz Prozessor 128 MB DDR3 512 MB NAND-Flash GC2145 1080P Farbsensor Mikrofon WLAN 2,4 GHz Anwendungen Entwicklung von KI-Erkennungsfunktionen Industrielle visuelle Identifikationssortierung Lernen mit maschinellem Sehen Inbegriffen 1 x M5Stack UnitV2 1 x 16g TF-Karte 1 x USB-C-Kabel (50 cm). 1 x Ständer 1 x Backstein

    1 auf Lager

    € 94,95€ 74,95

    Mitglieder identisch

  • Google AIY Vision Kit for Raspberry Pi

    Google Google AIY Vision Kit für Raspberry Pi

    Nicht auf Lager

    Google AIY Projects bringt künstliche Intelligenz zum Selbermachen in Ihre Maker-Projekte. Mit dem Google AIY Vision Kit können Sie ein Bilderkennungsgerät erstellen, das Objekte sehen und identifizieren kann, basierend auf den maschinellen Lernmodellen von TensorFlow. Das Kit enthält alle Komponenten, die zum Zusammenbau des Basiskits erforderlich sind, das mit dem Google Assistant SDK sowie der Bild- und Seherkennung auf dem Gerät mit TensorFlow mithilfe der Hardwareunterstützung der Intel Movidius Myriad Vision Processing Unit (VPU) funktioniert. Der Zusammenbau des Bausatzes sollte etwa eine Stunde dauern. Es ist kein Löten erforderlich, das komplette AIY-Kit ist ein fantastisches Pi Zero-Projekt! Inbegriffen Vision Bonnet Board mit Movidius VPU für Raspberry Pi – komplett montiert Raspberry Pi Zero WH (komplett montiert) Raspberry Pi-Kameraplatine Flaches Flexkabel der Pi Zero-Kamera CSI-Flachflexkabel zum Anschluss an die Kamera MicroSD-Karte für das Betriebssystem 11 mm Kunststoff-Abstandshalter Privatsphäre-LED Arcade-Druckknopf Knopfgeschirr Piezo-Summer LED-Lünette USB-Kabel – A/MicroB Stativbefestigungsmutter Äußerer Karton Interner Kartonrahmen

    Nicht auf Lager

    € 104,95

    Mitglieder € 94,46

  • Seeed Studio XIAO ESP32S3 Sense

    Seeed Studio Seeed Studio XIAO ESP32S3 Sense

    Seeed Studio XIAO ESP32S3 Sense integriert einen Kamerasensor, ein digitales Mikrofon und SD-Kartenunterstützung. Durch die Kombination eingebetteter ML-Rechenleistung und Fotografiefähigkeiten kann dieses Entwicklungsboard Ihr großartiges Werkzeug für den Einstieg in die intelligente Sprach- und Bild-KI sein. Seeed Studio XIAO ESP32S3 Sense basiert auf einem hochintegrierten Xtensa-Prozessor ESP32-S3R8 SoC, der 2,4 GHz WLAN und stromsparendes Bluetooth BLE 5.0 Dual-Mode für mehrere drahtlose Anwendungen unterstützt. Es verfügt über eine Lademanagementfunktion für Lithiumbatterien. Als erweiterte Version des Seeed Studio XIAO ESP32S3 verfügt dieses Board über einen einsteckbaren OV2640-Kamerasensor für die Anzeige der vollen Auflösung von 1600 x 1200. Die Basis ist sogar mit OV5640 kompatibel und unterstützt eine Auflösung von bis zu 2592 x 1944. Das digitale Mikrofon ist ebenfalls im Lieferumfang der Platine enthalten und dient zur Spracherkennung und Audioerkennung. SenseCraft AI bietet verschiedene vorab trainierte künstliche Intelligenz ( AI-Modelle und No-Code-Bereitstellung für XIAO ESP32S3 Sense. Mit leistungsstarkem SoC und integrierten Sensoren verfügt dieses Entwicklungsboard über 8 MB PSRAM und 8 MB Flash auf dem Chip sowie einen zusätzlichen SD-Kartensteckplatz zur Unterstützung von bis zu 32 GB FAT-Speicher. Diese ermöglichen dem Board mehr Programmierraum und bringen noch mehr Möglichkeiten in eingebettete ML-Szenarien. Features Leistungsstarkes MCU-Board: Enthält den 32-Bit-Dual-Core-Xtensa-Prozessorchip ESP32S3 mit einer Taktrate von bis zu 240 MHz, mehrere Entwicklungsanschlüsse und unterstützt Arduino/MicroPython. Erweiterte Funktionalität: Mit OV5640-Kamerasensor, integriert zusätzliches digitales Mikrofon Großartiger Speicher für mehr Möglichkeiten: Bietet 8 MB PSRAM und 8 MB Flash und unterstützt einen SD-Kartensteckplatz für externen 32 GB FAT-Speicher Hervorragende HF-Leistung: Unterstützt 2,4-GHz-WLAN und BLE-Dual-Wireless-Kommunikation, unterstützt Fernkommunikation über 100 m+ bei Verbindung mit einer U.FL-Antenne Daumengroßes, kompaktes Design: 21 x 17,5 mm, übernimmt den klassischen Formfaktor von XIAO, geeignet für Projekte mit begrenztem Platzangebot wie tragbare Geräte Vorab trainiertes Al-Modell von SenseCraft Al für No-Code-Bereitstellung Anwendungen Bildbearbeitung Spracherkennung Videoüberwachung Tragbare Geräte Smart Home Gesundheitsüberwachung Bildung Low Power (LP) Netzwerk Rapid Prototyping Technische Daten Processor ESP32-S3R8 Xtensa LX7 dual-core, 32-bit processor that operates at up to 240 MHz Wireless Complete 2.4 GHz Wi-Fi subsystem BLE: Bluetooth 5.0, Bluetooth mesh Built-in Sensors oV2640 camera sensor for 1600x1200 Digital Microphone Memory On-chip 8 MB PSRAM & 8 MB Flash Onboard SD Card Slot, supporting 32 GB FAT lnterface 1x UART, 1x I²C, 1x I²S, 1x SPI, 11x GPIOs (PWM), 9x ADC, 1x User LED, 1x Charge LED, 1x B2B Connector (with 2 additional GPIOs) 1x Reset button, 1x Boot button Dimensions 21 x 17.5 x 15 mm (with expansion board) Power Input voltage (Type-C): 5 V lnput voltage (BAT): 4.2 V Circuit operating Voltage (ready to operate): - Type-C: 5 V @ 38.3 mA - BAT: 3.8 V @ 43.2 mA (with expansion board) Webcam Web application: Type-C: - Average power consumption: 5 V/138 mA - Photo moment: 5 V/341 mA Battery: - Average power consumption: 3.8 V/154 mA - Photo moment: 3.8 V/304 mA Microphone recording & SD card writing: Type-C: - Average power consumption: 5 V/46.5 mA - Peak power consumption: 5 V/89.6 mA Battery: - Average power consumption: 3.8 V/54.4 mA - Peak power consumption: 3.8 V/108 mA Charging battery current: 100 mA Low Power Consumption Model (Supply Power: 3.8 V) Modem Sleep Model: ~44 mA Light Sleep Model: ~5 mA Deep Sleep Model: ~3 mA Wi-Fi Enabled Power Consumption Active Model: ~ 110 mA (with expansion board) BLE Enabled Power Consumption Active Model: ~ 102 mA (with expansion board) Lieferumfang 1x XIAO ESP32S3 1x Plug-in-Kamera-Sensorplatine 1x Antenne Downloads GitHub

    € 24,95

    Mitglieder € 22,46

  • AI at the Edge

    O'Reilly Media KI am Rande

    Lösen realer Probleme mit eingebettetem maschinellem Lernen Edge AI verändert die Art und Weise, wie Computer mit der realen Welt interagieren, und ermöglicht es IoT-Geräten, Entscheidungen anhand von 99 % der Sensordaten zu treffen, die zuvor aufgrund von Kosten-, Bandbreiten- oder Leistungsbeschränkungen verworfen wurden. Mit Techniken wie dem eingebetteten maschinellen Lernen können Entwickler die menschliche Intuition erfassen und auf jedem Ziel einsetzen – von Mikrocontrollern mit extrem geringem Stromverbrauch bis hin zu eingebetteten Linux-Geräten. Dieser praktische Leitfaden bietet Ingenieuren, darunter Produktmanagern und Technologieführern, einen umfassenden Rahmen für die Lösung realer industrieller, kommerzieller und wissenschaftlicher Probleme mit Edge-KI. Sie erkunden jede Phase des Prozesses, von der Datenerfassung über die Modelloptimierung bis hin zu Optimierung und Tests, während Sie lernen, wie Sie Edge-KI- und eingebettete ML-Produkte entwerfen und unterstützen. Edge AI ist dazu bestimmt, ein Standardwerkzeug für Systemingenieure zu werden. Diese allgemeine Roadmap hilft Ihnen beim Einstieg. Entwickeln Sie Ihr Fachwissen in KI und ML für Edge-Geräte Verstehen Sie, welche Projekte sich am besten mit Edge-KI lösen lassen Entdecken Sie wichtige Designmuster für Edge-KI-Apps Lernen Sie einen iterativen Workflow für die Entwicklung von KI-Systemen Bilden Sie ein Team mit den Fähigkeiten, reale Probleme zu lösen Befolgen Sie einen verantwortungsvollen KI-Prozess, um effektive Produkte zu erstellen Downloads Errata GitHub

    € 79,95

    Mitglieder € 71,96

Login

Passwort vergessen?

Sie haben noch kein Konto?
Konto erstellen