Posts tagged with parallelism

All posts tagged with parallelism in chronological order with newest first.

Last friday, the 31st of march 2017 I gave a talk about GPU computing with CUDA and OpenCL at the para//el 2017 conference in Heidelberg, Germany.

CUDA 8.0 on Mac OS X 10.12 gave me the following error

The version ('80000') of the host compiler ('Apple clang') is not supported

So there is a mismatch between the new Xcode 8.1 and the new CUDA 8.0.

In CUDA 8.0 C++ 11 lambdas can be used on the device. See the following code.

The implementation of the heat diffusion equation on multiple GPUs is explained in the talk (in german).

Hier sind die Folien meines Vortrags auf der parallel 2015.

“C++ AMP: Accelerated Massive Parallelism with Microsoft Visual C++” ist eine gute Einführung in die Programmierung mit C++ AMP. Leider ist das Buch zum Zeitpunkt der Rezension das einzige Buch über C++ AMP, so dass ich es nur mit anderen Büchern über CUDA und OpenCL vergleichen kann.

I tested the parallel ray tracer on all NVIDIA cards i bought. This page contains the results.

I wanted to learn some frameworks for parallel computing and i decided to implement a simple ray tracer as a "visual benchmark".

Das Besondere an “OpenCL in Action: How to Accelerate Graphics and Computation” ist, das der Autor Matthew Scarpino versucht, die Programme wirklich zu erklären. Man erfährt die Gründe für seine Design-Entscheidungen.

Beim Stöbern in “CUDA Fortran for Scientists and Engineers” habe ich gesehen, dass die Autoren wertvolle Optimierungstipps geben. Da bin ich neugierig geworden.

Hier sind die Folien meines Vortrags auf der parallel 2014.

Das Buch “GPU Computing Gems (Emerald Edition)” ist eine Sammlung von 50 wissenschaftlichen Artikeln über Erfahrungen bei der Verwendung des GPU-Computing in verschiedenen Fachgebieten.

Ich hatte schon viele Artikel der Reihe „CUDA, Supercomputing for the Masses“ von Rob Farber auf der Dr. Dobb’s Webseite gelesen und war recht angetan. Das war damals 2009 eine der wenigen Möglichkeiten, etwas anspruchsvolleres über CUDA zu lesen.

Mit CUDA ist es einfach, eine Berechnung um den Faktor 2-5 zu beschleunigen. Wie man höhere Speedups erreicht, lernt man in “CUDA Programming” von Shane Cook.

Nicholas Wilt zeigt sich in “The CUDA Handbook” sehr kompetent und experimentierfreudig bei der Optimierung von Kerneln. Das Buch kann von vielen Fortgeschrittenen mit Gewinn gelesen werden.

“Using OpenMP” ist eine gute Einführung und enthält ein paar gute Performancetipps.

Wenn man ein wenig Systematik in seine parallelen Programmierkünste bringen will, ist “Structured Parallel Programming: Patterns for Efficient Computation”
das Buch zum Einsteigen.

Hier sind die Folien meines Vortrags auf der parallel 2012.

“Patterns for Parallel Programming” ist ein wichtiges Werk für ‘parallele Programmierer’.

These slides are for a course about parallel computing.

Die Programmierung von parallelen und nebenläufigen Programmen mit Shared-Memory und Threads ist kompliziert und sehr fehleranfällig. Als Lösungsansätze wurden z. B. Software-Transactional-Memory (STM), Message-Passing-Architekturen und Aktoren-Modelle entwickelt. In “Programming Concurrency on the JVM” werden diese für die Java-Plattform vorgestellt.

Mit dem Titel “The Art of Concurrency” wird ein hoher Anspruch geweckt, der nicht erfüllt wird. Der Untertitel “A Thread Monkey’s Guide to Writing Parallel Applications” wird dem Inhalt schon eher gerecht, aber auch hier gibt es noch einige Kritikpunkte.

“Cuda by Example” ist der perfekte Start in CUDA für Einsteiger. Aber auch manche Fortgeschrittene und Profis könnten Ihre Freude an den guten Erklärungen und Beispielen haben.

Am 1. April hat Sony ein Update für die Playstation 3 herausgegeben, mit dem der Support für Linux eingestellt wird. Das hat viele verärgert und teilweise heftige Reaktionen und Diskussionen entfacht.

During the christmas holidays i rewrote my ray tracer for the NVIDIA CUDA architecture.

I installed Snow Leopard on my laptop yesterday. I was very curious about OpenCL and installed the drivers and the GPU Computing SDK from NVIDIA.

I have got a new computer. As alway i build it myself. How much faster is it?

The functional programming language Haskell provides a very easy way of parallelization.

Ray tracer running on an Intel Core i7 920 @2.67 MHz with Windows Vista Ultimate 64. The ray tracer uses the pthreads library for parallelization.

I tested my ray tracer on my Mac Book Pro. The peak performance is achieved with 7 threads. Programmed in C++ using the pthreads library.

I wanted to learn about the cell broadband engine used in the Playstation 3 and wrote a parallel ray tracer for it.

The german magazine JavaSpektrum organized the "Dynamic Languages Shootout" contest for the OOP 2008 conference. The challenge was to create a computer game similiar to Scrabble in a dynamically typed programming language.

While i was cleaning up my hard disk on my Linux in 2007, i needed a program that displays the disk usage graphically. I didn't find a suitable one on the web. At that time i was learning Groovy and it's for rapid application development, isn't it. So i gave it a try.

In dieser Seminararbeit für mein Hauptstudium habe ich 1996 Algorithmen für das Scheduling in verteilten Realzeitsystemen im Rahmen meines Informatikstudiums behandelt.

In dieser Seminararbeit für mein Hauptstudium habe ich 1995 das grundlegende Präfixsummen (prefix sum) im Rahmen meines Informatikstudiums behandelt.