Heim > häufiges Problem > Hauptteil

Was sind die grundlegenden Merkmale der Web2.0-Technologie?

青灯夜游
Freigeben: 2022-07-21 16:27:24
Original
13230 Leute haben es durchsucht

Grundlegende Funktionen der Web2.0-Technologie: 1. „Mehrere Personen nehmen teil“; in Web1.0 wurden Internetinhalte von einigen wenigen Redakteuren (oder Webmastern) angepasst, aber in Web2.0 trägt jeder zum Inhalt bei . 2. „Lesbares und beschreibbares Internet“; das Internet in Web1.0 ist ein „lesbares Internet“, während Web2.0 ein „beschreibbares und lesbares Internet“ ist.

Was sind die grundlegenden Merkmale der Web2.0-Technologie?

Die Betriebsumgebung dieses Tutorials: Windows 7-System, Dell G3-Computer.

Web 2.0 ist die Sammelbezeichnung für eine neue Art von Internetanwendungen im Vergleich zu Web 1.0 (dem Internetmodell vor 2003). Es handelt sich um eine Revolution von Kerninhalten zu externen Anwendungen. Die Entwicklung vom Web 1.0-Modell des einfachen Durchsuchens von HTML-Webseiten über einen Webbrowser zum Web 2.0-Internetmodell mit umfangreicheren Inhalten, stärkeren Verbindungen und stärkeren Tools ist zu einem neuen Entwicklungstrend im Internet geworden. Web 2.0 ist eine typische Verkörperung des zukunftsorientierten, menschenorientierten Innovations-2.0-Modells im Internetbereich, das durch die Netzwerkrevolution hervorgerufen wurde, die durch die Entwicklung der Informationstechnologie ausgelöst wurde. Es ist eine anschauliche Darstellung des Innovations- und Demokratisierungsprozesses von Fachleuten das Web an alle Benutzer, die am Weben des Webs teilnehmen.

Grundlegende Merkmale der Web2.0-Technologie

Im Vergleich zu Web1.0 weist Web2.0 die folgenden Merkmale auf:

1. Beteiligung mehrerer Personen

In Web1.0 werden Internetinhalte bearbeitet von einigen wenigen Mitarbeitern (oder Webmastern), wie z. B. Sohu; im Web2.0 ist jeder ein Mitwirkender von Inhalten. Der Inhalt von Web2.0 ist vielfältiger: Tags, Multimedia, Online-Zusammenarbeit usw. Im Web2.0-Informationserfassungskanal spielt das RSS-Abonnement eine sehr wichtige Rolle.

2. Lesbares und beschreibbares Internet

In Web1.0 ist das Internet ein „Lese-Internet“, während Web2.0 ein „beschreibbares und lesbares Internet“ ist. Obwohl jeder zum Informations-Feed beiträgt, ist es im Großen und Ganzen eine kleine Anzahl von Personen, die den Großteil des Inhalts beisteuern.

Sieben Prinzipien des Web 2.0

1. Das Internet als Plattform

Wie viele wichtige Konzepte hat Web 2.0 keine klare Grenze, sondern einen Schwerkraftkern. Wir könnten uns Web 2.0 genauso gut als eine Reihe von Prinzipien und Praktiken vorstellen, bei denen Websites weit oder nahe des Kerns in einem sonnensystemähnlichen Netzwerksystem organisiert sind. Diese Websites verkörpern mehr oder weniger die Prinzipien von Web 2.0. Man kann sagen, dass Web 2.0 eine typische Verkörperung des zukunftsorientierten, menschenorientierten Innovation 2.0-Modells ist, das durch offene Innovation und gemeinsame Innovation gekennzeichnet ist, die durch die durch die Entwicklung im Internet verursachte Informationsrevolution hervorgerufen werden Weben Sie das Web und alle Benutzer beteiligen sich am Weben des Webs. Ein anschaulicher Kommentar zum Innovationsdemokratisierungsprozess.

Auf der ersten Web 2.0-Konferenz im Oktober 2004 haben John Battelle und ich in unseren jeweiligen Eröffnungsbemerkungen eine vorläufige Reihe von Grundsätzen dargelegt. Der erste dieser Grundsätze ist „das Internet als Plattform“. Dies war auch der Schlachtruf von Netscape, dem Liebling des Web 1.0, doch Netscape fiel im Krieg mit Microsoft. Darüber hinaus waren zwei unserer frühen Web 1.0-Vorbilder, DoubleClick und Akamai, Pioniere bei der Nutzung des Webs als Plattform. Oft wird dies nicht als Netzwerkdienst betrachtet, aber tatsächlich war der Werbedienst der erste weit verbreitete Netzwerkdienst, und es war auch das erste weit verbreitete Mashup, wenn Sie ein anderes, in letzter Zeit populäres Wort verwenden. Jede Banneranzeige ist so konzipiert, dass sie nahtlos zwischen den beiden Websites funktioniert und den Lesern auf einem anderen Computer eine integrierte Seite liefert.

  Akamai betrachtet das Netzwerk auch als Plattform und baut auf einer tieferen Ebene ein transparentes Caching- und Inhaltsverteilungsnetzwerk auf, um Breitbandüberlastungen zu reduzieren.

 Dennoch bieten diese Pioniere einen nützlichen Vergleich, denn wenn Nachzügler auf die gleichen Probleme stoßen, können sie die Lösungen der Pioniere weiter ausbauen und so ein tieferes Verständnis für die Natur der neuen Plattform gewinnen. DoubleClick und Akamai sind beide Pioniere des Web 2.0. Gleichzeitig können wir sehen, dass durch die Einführung weiterer Web 2.0-Designmuster mehr Anwendungen realisiert werden können. 2. Nutzung der kollektiven Intelligenz Nutzen Sie die Kraft des Netzwerks.

- Hyperlinks sind die Grundlage des Internets. Wenn Benutzer neue Inhalte und neue Websites hinzufügen, sind sie auf eine bestimmte Netzwerkstruktur beschränkt, in der andere Benutzer die Inhalte entdecken und Links herstellen. Wie Synapsen im Gehirn wachsen miteinander verbundene Netzwerke organisch, da die Verbindungen untereinander durch Replikation und Verstärkung als direkte Folge aller Aktivitäten aller Netzwerkbenutzer stärker werden.   – Yahoo! war die erste große Erfolgsgeschichte, die aus einem Katalog oder Linkkatalog entstand, einer Sammlung der besten Arbeiten von Zehntausenden oder sogar Millionen Internetnutzern. Obwohl Yahoo! später in das Geschäft mit der Erstellung einer Vielzahl von Inhalten einstieg, bleibt seine Rolle als Portal zum Sammeln der kollektiven Werke von Internetnutzern der Kern seines Wertes.

 --Der Durchbruch von Google bei der Suche liegt in der PageRank-Technologie, die es schnell zum unangefochtenen Marktführer auf dem Suchmarkt machte. PageRank ist eine Methode, die die Linkstruktur des Netzwerks nutzt, anstatt nur die Attribute des Dokuments zu verwenden, um bessere Suchergebnisse zu erzielen.

 --Das Produkt von eBay ist die kollektive Aktivität aller seiner Nutzer. eBay wächst organisch mit den Aktivitäten seiner Nutzer, und die Rolle des Unternehmens besteht darin, ein bestimmtes Umfeld und die Aktionen seiner Nutzer zu fördern passiert in dieser Umgebung. Darüber hinaus beruht der Wettbewerbsvorteil von eBay fast ausschließlich auf der kritischen Masse an Käufern und Verkäufern, die die Produkte vieler seiner Konkurrenten deutlich weniger attraktiv macht.

 --Amazon verkauft die gleichen Produkte wie Konkurrenten wie Barnesandnoble.com, und diese Unternehmen erhalten von den Verkäufern die gleichen Produktbeschreibungen, Titelbilder und Kataloge. Der Unterschied besteht darin, dass Amazon eine Wissenschaft zur Förderung der Benutzerbeteiligung geschaffen hat. Amazon hat um mehr als eine Größenordnung höhere Benutzerbewertungen als seine Konkurrenten, mehr Einladungen, Benutzer auf fast jeder Seite auf vielfältige Weise einzubinden, und, was noch wichtiger ist, sie nutzen die Benutzeraktivität, um bessere Suchergebnisse zu erzielen. Suchergebnisse für Barnesandnoble.com verweisen wahrscheinlich auf die eigenen Produkte des Unternehmens oder auf gesponserte Ergebnisse, während Amazon immer mit dem sogenannten „Beliebtesten“ führt, einer Echtzeitberechnung, die nicht nur auf Verkäufen, sondern auf einer Reihe anderer Amazon-Angebote basiert Insider nennen einen Faktor rund um das Produkt „Fluss“. Da das Nutzerengagement um eine Größenordnung höher ist als bei seinen Konkurrenten, ist es keine Überraschung, dass Amazon seine Konkurrenten übertrifft.

Jetzt hinterlassen innovative Unternehmen, die diese Erkenntnisse haben und sie möglicherweise erweitern, ihre Spuren im Internet.

Wikipedia ist eine Online-Enzyklopädie, die auf einem scheinbar unmöglichen Konzept basiert. Die Idee dahinter ist, dass ein Eintrag von jedem Internetnutzer hinzugefügt und von jedem anderen bearbeitet werden kann. Zweifellos handelt es sich dabei um ein extremes Vertrauensexperiment, bei dem Eric Raymonds Maxime (abgeleitet aus dem Kontext von Open-Source-Software): „Mit genügend Augäpfeln werden alle Programmfehler beseitigt“ angewendet wird bis hin zur Content-Erstellung. Wikipedia gehört bereits zu den Top 100 Websites der Welt und viele glauben, dass es bald auch unter den Top 10 sein wird. Dies ist eine tiefgreifende Veränderung in der Inhaltserstellung.

Websites wie del.icio.us (köstliche Lesezeichen) und Flickr, ihre Unternehmen, haben in letzter Zeit viel Aufmerksamkeit erregt und sind zu einem Pionier in dem Konzept geworden, das die Leute „Folksonomie“ (Folksonomie, anders als traditionelle Taxonomie) nennen. „Fokusklassifizierung“ ist eine Methode zur gemeinsamen Klassifizierung von Websites mithilfe von Schlüsselwörtern, die vom Benutzer frei ausgewählt werden können. Diese Schlüsselwörter werden im Allgemeinen als Tags bezeichnet. Bei der Kennzeichnung werden statt starrer Kategorien mehrere, sich überschneidende Assoziationen verwendet, wie sie das Gehirn selbst nutzt. Um ein klassisches Beispiel zu nennen: Auf der Flickr-Website kann ein Foto eines Welpen mit „Welpe“ und „süß“ getaggt werden, sodass das System auf natürliche Weise suchen kann, die sich aus dem Benutzerverhalten ergibt.

Kollaborative Spam-Filterprodukte wie Cloudmark bündeln die vielen unabhängigen Entscheidungen, die E-Mail-Benutzer darüber treffen, ob eine E-Mail Spam ist oder nicht, und übertreffen damit Systeme, die auf der Analyse der E-Mail selbst basieren.

 Es ist fast selbstverständlich, dass die großen Internet-Erfolge ihre Produkte nicht überall aktiv bewerben. Sie nutzen „virales Marketing“, was bedeutet, dass sich einige Empfehlungen direkt von einem Benutzer zum anderen verbreiten. Wenn eine Website oder ein Produkt zur Verkaufsförderung auf Werbung angewiesen ist, können Sie mit ziemlicher Sicherheit zu dem Schluss kommen, dass es sich nicht um Web 2.0 handelt.

Sogar ein Großteil der Internet-Infrastruktur selbst, einschließlich des Linux-, Apache-, MySQL- und Perl-, PHP- oder Python-Codes, der in den meisten Webservern verwendet wird, basiert auf Open-Source-Peer-Produktion. Es enthält eine kollektive, netzwerkbasierte Weisheit. Auf der Website SourceForge.net sind mindestens 100.000 Open-Source-Softwareprojekte aufgeführt. Jeder kann ein Projekt hinzufügen und jeder kann den Projektcode herunterladen und verwenden.

Gleichzeitig wandern durch die Nutzernutzung neue Projekte vom Rand ins Zentrum. Ein organischer Akzeptanzprozess für Software basiert fast ausschließlich auf viralem Marketing. Gleichzeitig wandern neue Projekte aufgrund der Benutzerakzeptanz, einem organischen Softwareeinführungsprozess, der fast ausschließlich auf viralem Marketing beruht, vom Rand ins Zentrum.

 Die Erfahrung ist: Der Netzwerkeffekt, der sich aus Benutzerbeiträgen ergibt, ist der Schlüssel zur Marktbeherrschung im Web 2.0-Zeitalter.

3. Daten sind das nächste Intel Inside

 Jede wichtige Internetanwendung wird jetzt von einer speziellen Datenbank gesteuert: Googles Webcrawler, Yahoo!s Verzeichnis (und Webcrawler), Amazons Produktdatenbank, eBays Produktdatenbank und Verkäufer, MapQuests Kartendatenbank, Napsters verteilte Songbibliothek. Wie Hal Varian letztes Jahr in einem privaten Gespräch sagte: „SQL ist das neue HTML.“ Die Datenbankverwaltung ist eine Kernkompetenz von Web 2.0-Unternehmen und ihre Bedeutung ist so groß, dass wir diese Programme manchmal als „Infoware“ und nicht nur als Software bezeichnen.

 Diese Tatsache wirft auch eine zentrale Frage auf: Wem gehören die Daten?

Im Internetzeitalter haben wir möglicherweise Fälle erlebt, in denen die Kontrolle von Datenbanken zu Marktbeherrschung und enormen finanziellen Erträgen führte. Das Monopol auf die Registrierung von Domainnamen, das Network Solutions ursprünglich per Erlass der US-Regierung gewährt wurde (später von Verisign übernommen), war die erste Cash-Cow des Internets. Während wir argumentieren, dass die Generierung von Geschäftsvorteilen durch die Steuerung von Software-APIs im Internetzeitalter deutlich schwieriger werden wird, gilt dies nicht für die Steuerung kritischer Datenressourcen, insbesondere wenn diese Datenressourcen teuer in der Erstellung sind oder sich über Netzwerkeffekte leicht vermehren zurück.

Achten Sie auf die Copyright-Erklärung unter jeder von MapQuest, maps.yahoo.com, maps.msn.com oder maps.google.com bereitgestellten Karte. Sie finden eine Zeile wie „Karten-Copyright NavTeq, TeleAtlas“ oder „if“. Wenn Sie einen neuen Satellitenbilddienst verwenden, wird „Bild-Copyright Digital Globe“ angezeigt. Diese Unternehmen haben erhebliche Investitionen in ihre Datenbanken getätigt. (Allein NavTeq hat eine Investition von 750 Millionen US-Dollar angekündigt, um seine Straßenadressen- und Routendatenbank zu erstellen. Digital Globe investiert 500 Millionen US-Dollar in den Start seiner eigenen Satelliten, um die von der Regierung bereitgestellten Bilder zu verbessern.) NavTeq hat tatsächlich getan. Es gibt viele Nachahmungen von Intels bekanntem Intel Innenlogo: Autos mit Navigationssystemen tragen beispielsweise den Aufdruck „NavTeq Onboard“. Daten sind de facto das Intel Inside für viele dieser Programme und die einzige Informationsquellenkomponente für einige Systeme, deren Softwaresysteme größtenteils Open Source oder kommerziell sind.

Der derzeit starke Wettbewerb im Bereich Web Mapping zeigt, dass die Vernachlässigung der Bedeutung des Besitzes der Kerndaten der Software letztendlich ihre Wettbewerbsposition schwächen wird. MapQuest betrat 1995 als erstes Unternehmen den Mapping-Bereich, gefolgt von Yahoo!, dann Microsoft und in jüngerer Zeit Google. Sie können problemlos ein wettbewerbsfähiges Programm bereitstellen, indem sie die gleichen Daten lizenzieren.

 Als Vergleich dient jedoch die Wettbewerbsposition von Amazon.com. Wie bei Konkurrenten wie Barnesandnoble.com stammt die Originaldatenbank vom ISBN-Registrar R. Bowker. Aber im Gegensatz zu MapQuest hat Amazon seine Daten erheblich verbessert und von Verlagen bereitgestellte Daten wie Titelbilder, Inhaltsverzeichnisse, Indizes und Beispielmaterialien hinzugefügt. Noch wichtiger ist, dass sie ihre Benutzer dazu nutzten, die Daten mit Anmerkungen zu versehen, sodass ein Jahrzehnt später Amazon und nicht Bowker zur Hauptquelle bibliografischer Informationen, einer Referenzquelle für Wissenschaftler, Bibliothekare und Verbraucher, wurde. Amazon hat außerdem seine proprietäre Kennung, die ASIN, eingeführt, die einer ISBN entspricht, sofern vorhanden, und einen entsprechenden Namensraum erstellt, wenn ein Produkt keine ISBN hat. Amazon „absorbiert und erweitert“ somit quasi seine Datenanbieter.

Stellen Sie sich vor, MapQuest hätte das Gleiche getan und seine Benutzer zum Kommentieren von Karten und Routen genutzt und so eine neue Wertebene hinzugefügt. Dann wird es für andere Wettbewerber, die nur über die Lizenzierung der Basisdaten in diesen Markt eintreten, weitaus größere Schwierigkeiten bereiten.

Die kürzliche Einführung von Google Maps hat ein lebendiges Labor für den Wettbewerb zwischen App-Verkäufern und ihren Datenanbietern geschaffen. Das schlanke Programmiermodell von Google hat zur Entstehung unzähliger Mehrwertdienste geführt, die Datenhybridisierung nutzen, um Googles Karten mit anderen über das Internet zugänglichen Datenquellen zu kombinieren. Ein großartiges Beispiel für diesen Hybrid ist Housingmaps.com von Paul Rademacher, das Google Maps mit Craigslist-Daten zur Wohnungsvermietung und zum Hauskauf kombiniert, um eine interaktive Wohnungssuchkarte zu erstellen.

Derzeit handelt es sich bei diesen Hybriden meist um innovative experimentelle Produkte, die von Programmierern implementiert werden. Aber unternehmerische Maßnahmen werden folgen. Und das kann man bereits in mindestens einer Kategorie von Entwicklern erkennen. Google hat Navteq die Rolle des Datenquellenanbieters entzogen und sich als bevorzugter Vermittler positioniert. In den nächsten Jahren werden wir einen Kampf zwischen Datenanbietern und Anwendungsanbietern erleben, da beide Lager erkennen, wie wichtig bestimmte Datenkategorien als Bausteine ​​für die Erstellung von Web 2.0-Anwendungen sind.

Im Rennen ging es um bestimmte Kategorien von Kerndaten: Standort, Identität, öffentlicher Veranstaltungskalender, Produktidentität, Namensraum usw. In vielen Fällen, in denen die Erstellung der Daten mit enormen Kosten verbunden ist, besteht möglicherweise die Möglichkeit, alles mit einer einzigen Datenquelle zu erledigen, wie es Intel Inside tut. In anderen Fällen werden die Gewinner diejenigen Unternehmen sein, die durch Benutzeraggregation eine kritische Masse erreichen und die aggregierten Daten in Systemdienste integrieren.

Im Bereich der Identität können beispielsweise PayPal, Amazons One-Click und Kommunikationssysteme mit Millionen von Benutzern zu legitimen Konkurrenten beim Aufbau einer netzwerkweiten Identitätsdatenbank werden. (Übrigens könnte der jüngste Versuch von Google, Mobiltelefonnummern als Gmail-Kontokennungen zu verwenden, ein Schritt zur Ausleihe und Erweiterung des Telefonsystems sein.) In der Zwischenzeit prüfen Start-ups wie Sxip die Möglichkeit föderierter Identitäten, um einen „verteilten One-Click“ zu erreichen „Ansatz zur Bereitstellung eines nahtlosen Web 2.0-Identitätssubsystems. Im Kalenderbereich ist EVDB ein Versuch, den weltweit größten gemeinsamen Kalender durch ein Beteiligungssystem im Wiki-Stil aufzubauen. Auch wenn die Entscheidung über den Erfolg eines bestimmten Startups oder Ansatzes noch unklar ist, ist klar, dass Standards und Lösungen in diesen Bereichen tatsächlich einige Daten in zuverlässige, zuverlässige „Internet-Betriebssysteme“ umwandeln und Anwendungen der nächsten Generation ermöglichen werden.

  In Bezug auf Daten ist ein weiterer Aspekt, der beachtet werden muss, dass Benutzer um ihre Privatsphäre und Berechtigungen für ihre eigenen Daten besorgt sind. In vielen frühen Webprogrammen wurde das Urheberrecht nur lose durchgesetzt. Amazon beansprucht beispielsweise das Eigentum an jeder auf seiner Website abgegebenen Bewertung, es mangelt jedoch an Durchsetzungsmaßnahmen, und Personen können dieselbe Bewertung an anderer Stelle erneut veröffentlichen. Da jedoch viele Unternehmen erkennen, dass die Kontrolle von Daten das Potenzial hat, zu ihrer Hauptquelle für Wettbewerbsvorteile zu werden, werden wir intensivere Versuche mit solchen Kontrollen erleben.

So wie das Wachstum proprietärer Software zur Bewegung freier Software führte, werden wir im nächsten Jahrzehnt erleben, wie das Wachstum proprietärer Datenbanken zur Bewegung freier Daten führen wird. Vorläufer dieser Gegenbewegung können wir in Open-Data-Projekten wie Wikipedia, Creative Commons und Softwareprojekten wie Greasemonkey (das es Benutzern ermöglicht, zu entscheiden, wie Daten auf ihren Computern angezeigt werden) sehen.

4. Das Ende des Software-Release-Zyklus

Wie oben im Vergleich zwischen Google und Netscape erwähnt, besteht das repräsentative Merkmal von Software im Internetzeitalter darin, dass sie als Dienst bereitgestellt werden sollte. Dieser Umstand führt zu vielen grundlegenden Veränderungen in den Geschäftsmodellen solcher Unternehmen.

 1. Der Betrieb muss zu einer zentralen Wettbewerbsfähigkeit werden. Das Fachwissen von Google oder Yahoo! in der Produktentwicklung muss mit Fachwissen im täglichen Betrieb einhergehen. Der Wandel von Software als hergestelltes Produkt zu Software als Dienstleistung ist so grundlegend, dass die Software ihre Aufgabe nicht mehr erfüllen kann, wenn sie nicht täglich gewartet wird. Google muss das Internet kontinuierlich crawlen und seinen Index aktualisieren, Link-Spam und andere Dinge, die sich auf seine Ergebnisse auswirken, kontinuierlich herausfiltern, kontinuierlich und dynamisch auf zig Millionen asynchrone Nutzeranfragen reagieren und diese Anfragen synchron mit kontextrelevanten Anzeigen abgleichen.

Es ist also nicht verwunderlich, dass die Systemverwaltungs-, Netzwerk- und Lastausgleichstechnologie von Google möglicherweise strenger geschützt ist als sein Suchalgorithmus. Der Erfolg von Google bei der Automatisierung dieser Schritte ist ein wesentlicher Aspekt seines Kostenvorteils gegenüber seinen Mitbewerbern.

Es ist auch keine Überraschung, dass Skriptsprachen wie Perl, Python, PHP und jetzt Ruby eine große Rolle in Web 2.0-Unternehmen spielen. Hassan Schroeder, der erste Netzwerkadministrator von Sun, beschrieb Perl einst als „das Klebeband des Internets“. Tatsächlich sind dynamische Sprachen (oft als Skriptsprachen bezeichnet und von Softwareentwicklern im Zeitalter der Softwareartefakte verunglimpft) beliebte Werkzeuge von System- und Netzwerkadministratoren sowie Programmentwicklern, die dynamische Systeme erstellen, die häufig aktualisiert werden können .

  2. Benutzer müssen als Mitentwickler behandelt werden, was sich aus einer Reflexion über Open-Source-Entwicklungspraktiken ergibt (auch wenn die beteiligte Software wahrscheinlich nicht unter einer Open-Source-Lizenz veröffentlicht wird). Das Open-Source-Motto „frühzeitig veröffentlichen und oft veröffentlichen“ hat sich tatsächlich zu einer extremeren Positionierung entwickelt: „der ewigen Beta“. Das Produkt wird im offenen Zustand entwickelt und neue Funktionen werden monatlich, wöchentlich oder sogar täglich hinzugefügt. Gmail, Google Maps, Flickr, del.icio.us und andere ähnliche Dienste werden wahrscheinlich irgendwann noch Jahre in der Betaphase bleiben.

  Daher wird die Überwachung des Benutzerverhaltens in Echtzeit, um zu untersuchen, welche neuen Funktionen verwendet werden und wie sie verwendet werden, zu einer weiteren notwendigen Kernkompetenz im Wettbewerb. Ein Entwickler, der für ein großes Online-Dienstleistungsnetzwerk arbeitet, kommentierte: „Wir liefern jeden Tag zwei oder drei neue Funktionen in bestimmten Teilen der Website, und wenn Benutzer sie nicht übernehmen, entfernen wir sie. Wenn Benutzer sie mögen, werden wir' Ich werde sie auf der gesamten Website einführen.“ Cal Henderson, Chefentwickler von Flickr, verriet kürzlich, wie sie in nur jeder halben Stunde eine neue Version bereitstellen. Offensichtlich ist dies ein ganz anderes Entwicklungsmodell als die traditionelle Methode. Zwar werden nicht alle Webprogramme auf eine extreme Art und Weise wie Flickr entwickelt, doch fast alle Webprogramme haben einen Entwicklungszyklus, der sich stark von dem der PC- oder Client-Server-Ära unterscheidet. Aus diesem Grund kam das ZDnet-Magazin zu dem Schluss, dass Microsoft Google nicht besiegen wird: „Das Geschäftsmodell von Microsoft basiert darauf, dass jeder seine Computerumgebung alle zwei bis drei Jahre aktualisiert. Das Modell von Google basiert darauf, dass jeder jeden Tag seine eigene Arbeit in seiner Computerumgebung erledigt. Entdecken Sie neue Dinge.“ „

Während Microsoft eine starke Fähigkeit unter Beweis gestellt hat, von der Konkurrenz zu lernen und letztendlich das Beste zu geben, besteht kein Zweifel daran, dass die Konkurrenz dieses Mal von Microsoft (und damit auch von jedem bestehenden Softwareunternehmen) verlangt, ein Unternehmen zu werden. Es gibt eindeutig unterschiedliche Unternehmen auf einer tieferen Ebene. Unternehmen, die im Web 2.0 geboren sind, genießen einen natürlichen Vorteil, weil sie sich nicht von alten Modellen (und den damit verbundenen Geschäftsmodellen und Einnahmequellen) lösen müssen.

5. Leichtes Programmiermodell

Sobald sich das Konzept der Netzwerkdienste durchgesetzt hat, werden sich große Unternehmen mit komplexen Netzwerkdienst-Stacks dem Kampf anschließen. Dieser Netzwerkdienst-Stack soll eine zuverlässigere Programmierumgebung für verteilte Programme schaffen.

 Aber genau wie das Internet gerade deshalb erfolgreich war, weil es viele Hypertext-Theorien auf den Kopf stellte, ersetzte RSS einfachen Pragmatismus durch perfektes Design und ist aufgrund seiner Einfachheit wahrscheinlich zum am weitesten verbreiteten Netzwerkdienst geworden, und diese komplexen Unternehmensnetzwerkdienste haben noch keine weite Verbreitung gefunden Annahme.

In ähnlicher Weise gibt es die Netzwerkdienste von Amazon.com in zwei Formen: Die eine folgt dem Formalismus des SOAP-Netzwerkdienststapels (Simple Object Access Protocol), die andere wird einfach außerhalb des HTTP-XML-Protokolls bereitgestellt. was manchmal vereinfacht als REST (Representational State Transfer) bezeichnet wird. Während B2B-Verbindungen mit höherem Geschäftswert (z. B. zwischen Amazon und einigen Einzelhandelspartnern wie ToysRUs) den SOAP-Stack verwenden, berichtet Amazon, dass 95 % der Nutzung von einfachen REST-Diensten stammt.

Der gleiche Wunsch nach Einfachheit lässt sich auch bei anderen „einfachen“ Webdiensten beobachten. Ein Beispiel ist die kürzliche Einführung von Google Maps durch Google. Die einfache AJAX-Schnittstelle (Javascript und XML) von Google Maps wurde schnell von Programmierern entschlüsselt, die die Daten dann weiter in neue Dienste mischten.

 Kartenbezogene Webdienste gibt es schon seit einiger Zeit, beispielsweise GIS (geografische Informationssysteme) wie ESRI und MapPoint von MapQuest und Microsoft. Aber Google Maps hat die Welt mit seiner Einfachheit begeistert. Während für anbieterunterstützte Webdienste früher formelle Vereinbarungen zwischen den Parteien erforderlich waren, wurde Google Maps so implementiert, dass Daten erfasst werden konnten, und Programmierer fanden schnell Möglichkeiten, die Daten kreativ wiederzuverwenden.

 Hier gibt es mehrere wichtige Lektionen:

 1. Unterstützen Sie leichtgewichtige Programmiermodelle, die lose gekoppelte Systeme ermöglichen. Das komplexe Design der von Unternehmen entwickelten Web-Service-Stacks ist darauf ausgelegt, eine enge Integration zu ermöglichen. Obwohl dies in vielen Fällen notwendig ist, können viele der wichtigsten Anwendungen tatsächlich lose oder sogar schwach gekoppelt bleiben. Das Konzept von Web 2.0 unterscheidet sich völlig vom Konzept der traditionellen IT.

 2. Denken Sie eher an Syndizierung als an Koordination. Einfache Webdienste wie RSS- und REST-basierte Webdienste werden zum Aggregieren ausgehender Daten verwendet, steuern jedoch nicht, was passiert, wenn sie das andere Ende der Verbindung erreichen. Diese Idee ist grundlegend für das Internet selbst und spiegelt das sogenannte End-to-End-Prinzip wider.

 3. Programmierbarkeit und Mischbarkeitsdesign. Wie das ursprüngliche Internet haben Systeme wie RSS und AJAX eines gemeinsam: Die Hürden für die Wiederverwendung sind sehr niedrig. Viele nützliche Software ist tatsächlich Open Source, und selbst wenn dies nicht der Fall ist, gibt es nicht viel, um ihr geistiges Eigentum zu schützen. Die Option „Quelle anzeigen“ von Internetbrowsern ermöglicht es vielen Benutzern, die Webseite eines anderen Benutzers zu kopieren. RSS soll es Benutzern ermöglichen, den Inhalt anzuzeigen, den sie benötigen, und nicht auf Anfrage des Informationsanbieters Dienste sind diejenigen, die am anfälligsten dafür sind, neue Richtungen einzuschlagen, an die die Ersteller des Dienstes nicht gedacht haben. Der Begriff „Einige Rechte vorbehalten“, der durch das Creative-Commons-Abkommen populär gemacht wurde, dient als nützlicher Wegweiser im Vergleich zum allgemeineren „Alle Rechte vorbehalten“.

6. Software geht über ein einzelnes Gerät hinaus

Ein weiteres erwähnenswertes Merkmal von Web 2.0 ist die Tatsache, dass Web 2.0 nicht mehr auf die PC-Plattform beschränkt ist. In seinem Abschiedsratschlag an Microsoft stellte der langjährige Microsoft-Entwickler Dave Stutz fest, dass „nützliche Software, die über ein einzelnes Gerät hinausgeht, auf lange Sicht profitabler sein wird“.

Natürlich kann jedes Netzwerkprogramm über ein einzelnes Gerät hinaus als Software betrachtet werden. Denn selbst bei den einfachsten Internetprogrammen sind mindestens zwei Computer beteiligt: ​​Einer ist für den Webserver zuständig, der andere für den Browser. Und wie wir bereits besprochen haben, erweitert die Entwicklung des Netzwerks als Plattform dieses Konzept auf zusammengesetzte Anwendungen, die aus Diensten bestehen, die von mehreren Computern bereitgestellt werden.

Aber wie in vielen Bereichen des Web 2.0, in denen „2.0-ness“ nicht völlig neu ist, sondern eine umfassendere Verwirklichung des wahren Potenzials der Internetplattform darstellt, geht Software über ein einzelnes Gerät hinaus. Diese Aussage gibt uns wichtige Einblicke in die Gestaltung von Programmen und Services für die neue Plattform.

 Bis heute ist iTunes das beste Beispiel für dieses Prinzip. Das Programm erstreckt sich nahtlos vom Handheld-Gerät in das riesige Internet-Backend, wo der PC die Rolle eines lokalen Caches und einer Kontrollstelle übernimmt. Es gab bereits viele Versuche, Inhalte aus dem Internet auf tragbare Geräte zu übertragen, aber die iPod/iTunes-Kombination war die erste ihrer Art, die von Grund auf für den Einsatz auf mehreren Geräten konzipiert war. TiVo ist ein weiteres gutes Beispiel.

 iTunes und TiVo verkörpern auch einige andere Grundprinzipien von Web 2.0. Keines davon ist selbst ein Netzwerkprogramm, aber sie alle nutzen die Leistungsfähigkeit der Internetplattform, um das Netzwerk zu einem nahtlosen und fast unmerklichen Teil ihres Systems zu machen. Das Datenmanagement steht eindeutig im Mittelpunkt des Mehrwerts, den sie bieten. Es handelt sich auch um Dienste und nicht um Paketprogramme (obwohl es im Fall von iTunes als Paketprogramm verwendet werden kann, um nur die lokalen Daten des Benutzers zu verwalten). Darüber hinaus demonstrieren sowohl TiVo als auch iTunes einige neue Anwendungen kollektiver Intelligenz. Allerdings besteht das Experiment in jedem Fall darin, mit demselben Netzwerk-IP-Zugang umzugehen. Bei iTunes gibt es nur ein begrenztes Beteiligungssystem, obwohl diese Regel durch die jüngste Hinzufügung von Podcasts regelmäßiger geworden ist.

Dies ist ein Bereich des Web 2.0, in dem wir auf große Veränderungen hoffen, da immer mehr Geräte mit dieser neuen Plattform verbunden werden. Welche Programme könnten entstehen, wenn unsere Telefone und Autos Daten melden, obwohl sie diese nicht verbrauchen? Echtzeit-Verkehrsüberwachung, Flashmobs und Bürgermedien sind nur einige Frühwarnsignale dafür, wozu die neuen Plattformen fähig sind.

7. Umfangreiche Benutzererfahrung

  Das Internet geht auf den 1992 von Pei Wei entwickelten Browser zurück. Das Internet wurde für die Bereitstellung von „Applets“ und anderen Inhalten in Webbrowsern verwendet. Die Einführung von Java im Jahr 1995 drehte sich um die Bereitstellung solch kleiner Programme. JavaScript und später DHTML wurden als einfache Möglichkeiten eingeführt, um dem Client Programmierbarkeit und umfassende Benutzererfahrungen zu bieten. Vor einigen Jahren prägte Macromedia den Begriff „Rich Internet Applications“ (ein Begriff, der auch vom Flash-Konkurrenten Open Source Laszlo Systems verwendet wird), um hervorzuheben, dass Flash nicht nur Multimedia-Inhalte, sondern auch ein Anwendungserlebnis im GUI-Stil (Graphical User Interface) bereitstellen kann.

Das Potenzial des Internets zur Bereitstellung vollständiger Anwendungen wurde jedoch erst zum Mainstream, als Google Gmail einführte, dicht gefolgt vom Google Maps-Programm, einer Reihe internetbasierter Anwendungen mit umfangreichen Benutzeroberflächen und einer Interaktivität, die PC-Programmen entspricht. Die von Google verwendeten Technologien wurden in einer Seminararbeit von Jesse James Garrett von der Webdesign-Firma Adaptive Path als AJAX bezeichnet. Er schrieb:

Ajax ist keine Technologie. Es handelt sich tatsächlich um mehrere Technologien, von denen jede für sich floriert und auf leistungsstarke neue Weise kombiniert wird. Ajax umfasst:

  -Verwendung von XHTML und CSS, um eine Anzeige basierend auf verschiedenen Standards zu erreichen.

 --Verwenden Sie das Document Object Model, um eine dynamische Anzeige und Interaktion zu erreichen.

 --Verwenden Sie XML und XSLT, um den Datenaustausch und -betrieb zu realisieren.

  – Verwenden Sie XMLHttpRequest, um den asynchronen Datenabruf zu implementieren.

  – JavaScript verbindet alles.

AJAX ist auch eine Schlüsselkomponente von Web 2.0-Programmen wie Flickr, jetzt im Besitz von Yahoo!, den 37signals-Programmen Basecamp und Backpack und anderen Google-Programmen wie Gmail und Orkut. Wir treten in eine beispiellose Phase der Innovation von Benutzeroberflächen ein, da Internetentwickler endlich Webanwendungen erstellen können, die genauso umfangreich sind wie native PC-basierte Anwendungen.

Interessant ist, dass es viele der jetzt erforschten Funktionen schon seit Jahren gibt. In den späten 1990er Jahren hatten sowohl Microsoft als auch Netscape eine Vorstellung davon, was nun endlich anerkannt wurde, aber ihre Kämpfe um die zu übernehmenden Standards machten es schwierig, browserübergreifende Anwendungen zu implementieren. Das Schreiben eines solchen Programms war erst möglich, als Microsoft die Browserkriege eindeutig gewann und es eigentlich nur einen Browserstandard zu schreiben gab. Gleichzeitig hat Firefox zwar wieder für Konkurrenz auf dem Browsermarkt gesorgt, aber zumindest im Moment haben wir noch keinen derart zerstörerischen Kampf um Internetstandards erlebt, der uns in die 90er-Jahre zurückversetzen würde.

In den nächsten Jahren werden wir viele neue Netzwerkprogramme sehen, die nicht nur wirklich neuartige Programme sind, sondern auch reichhaltige Netzwerkversionen von PC-Programmen. Jeder bisherige Plattformwechsel hat auch die Möglichkeit geschaffen, die Führung derjenigen Programme zu ändern, die auf der alten Plattform vorherrschend waren.

Gmail hat einige interessante Innovationen im E-Mail-Bereich hervorgebracht und die Leistungsfähigkeit des Internets (Zugriff von überall, umfassende Datenbankfunktionen, Durchsuchbarkeit) mit einer Benutzeroberfläche kombiniert, die in puncto Benutzerfreundlichkeit der PC-Oberfläche ähnelt. In der Zwischenzeit drängten andere E-Mail-Programme auf der PC-Plattform von der anderen Seite auf das Feld, indem sie IM- und Präsentationsfunktionen hinzufügten. Wie weit sind wir von integrierten Kommunikationskunden entfernt? Diese integrierten Kommunikationsclients sollten E-Mail, Instant Messaging und Mobiltelefone integrieren und VoIP nutzen, um die umfangreichen Funktionen von Webanwendungen um Sprachfunktionen zu erweitern. Das Rennen hat bereits begonnen.

 Wir können auch leicht erkennen, wie Web 2.0 das Adressbuch neu erfinden kann. Ein Adressbuch im Web 2.0-Stil würde das lokale Adressbuch auf Ihrem PC oder Telefon lediglich als einen Cache mit Kontakten behandeln, die das System ausdrücklich speichern soll. In der Zwischenzeit speichert ein auf dem Internet basierender asynchroner Proxy im Gmail-Stil jede gesendete oder empfangene Nachricht, jede E-Mail-Adresse und jede verwendete Telefonnummer und erstellt von sozialen Netzwerken inspirierte Algorithmen, um zu entscheiden, wann eine Antwort bereitgestellt werden soll kann nicht im lokalen Cache gefunden werden. Bleibt eine Antwort aus, fragt das System das weitere soziale Netzwerk ab.

Ein Web 2.0-Textverarbeitungsprogramm unterstützt die gemeinsame Bearbeitung im Wiki-Stil, anstatt nur einzelne Dokumente zu verarbeiten. Das Programm unterstützt aber auch die umfangreiche Formatierung, die wir von PC-basierten Textverarbeitungsprogrammen erwarten. Writely ist ein hervorragendes Beispiel für ein solches Programm, obwohl es bisher keine große Aufmerksamkeit erregt hat.

 Darüber hinaus wird die Web 2.0-Revolution nicht auf PC-Programme beschränkt sein. Beispielsweise zeigt Salesforce.com in Unternehmensanwendungen wie CRM, wie das Netzwerk zur Bereitstellung von Software als Service genutzt werden kann.

Für Neueinsteiger liegt die Wettbewerbschance darin, das Potenzial von Web 2.0 voll auszuschöpfen. Erfolgreiche Unternehmen werden Programme erstellen, die von ihren Benutzern lernen, und Systeme zur Beteiligung nutzen, um sich nicht nur in der Benutzeroberfläche der Software, sondern auch in der Fülle der gemeinsam genutzten Daten einen entscheidenden Vorteil zu verschaffen.

Weitere Informationen zu diesem Thema finden Sie in der Spalte „FAQ“!

Das obige ist der detaillierte Inhalt vonWas sind die grundlegenden Merkmale der Web2.0-Technologie?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
web
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage