Ich raff gar nicht, was hier für ein Blödsinn vor sich geht.
Java hat primär plattforminterkompatible Anwendungen oder Webapplikationen im Fokus, C++ wird häufig für rechenzeitoptimierte, leistungshungrige Software oder für hardwarenahe Programmierung verwendet. Macht das nun eine Programmiersprache besser als eine Andere?
Und ob man wirklich Mehrfachvererbung oder Zeigermanipulation braucht, sei absolut dahingestellt. 'Aus großer Macht folgt auch große Verantwortung' - oder so ähnlich? Welchen Schaden ein unerfahrener C(++) Programmierer anrichten kann bei Anwendungen, die nicht sandboxed sind, will ich gar nicht erwähnen. Da hat Java ganz klar einen Vorteil. Sofern man anfängt, Peripherie anzusprechen, ist man natürlich mit Java auf dem Holzweg. Hierfür ist jedoch Java auch keineswegs erdacht!
Außerdem ist es sowieso egal, welche Programmiersprache man zur Umsetzung einer Problemstellung verwendet. Eine Programmiersprache ist und bleibt immer nur ein Werkzeug zur Lösung eines Problems.
Der Trend, den Java bereits vor längerer Zeit gesetzt hat (Garbage Collection, kein low-level-Zugriff über Zeiger) wurde von Microsoft mit dem .NET-Framework (C#, VB.NET) aufgegriffen. Scheinbar sind bei sinkenden Hardwarepreisen und der immensen Leistungssteigerung der PCs innerhalb der letzten 5 bis 10 Jahre gar keine Hardcore-Low-Level-Zeiger-Orgien mehr notwendig, um bei einem Großteil(!) der Software die Anforderungen einzuhalten.
Und die Tatsache, dass Java-Programmierer nichts drauf haben (müssen), möchte ich stark zurückweisen. Im Forschungsbetrieb an diversen Hochschulen kenne ich viele wissenschaftliche Mitarbeiter und Professoren, die Java zur Implementierung von Algorithmen für die verschiedensten Zwecke verwenden. Nur hierbei zählt nicht, wie gut man mit einer Sprache umgehen kann, sondern tatsächlich die Aufgabe, die es zu lösen galt.
Doch das alles wird meine Antipathie gegenüber Java wohl auch nicht lindern..
|