sobota, 31 grudnia 2011

Pierwszy molibdenitowy mikrochip

Szwajcarscy uczeni z École Polytechnique Fédérale de Lausanne (EPFL), którzy na początku bieżącego roku poinformowali o świetnych właściwościach molibdenitu, materiału mogącego stać się konkurencją dla krzemu i grafenu, właśnie zaprezentowali pierwszy układ scalony zbudowany z tego materiału.

Zbudowaliśmy prototyp, umieszczając od dwóch to sześciu tranzystorów i udowadniając, że możliwe jest przeprowadzenie podstawowych operacji logicznych. To dowodzi, że można zbudować większy układ - mówi profesor Andras Kis, dyrektor Laboratorium Nanoskalowych Struktur i Elektroniki (LANES).

Uczony wyjaśnia, że molibdenit umożliwia budowanie mniejszych tranzystorów niż krzem. Obecnie nie można tworzyć warstw krzemu cieńszych niż 2 nanometry, gdyż istnieje ryzyko ich utlenienia się, co negatywnie wpływa na właściwości elektryczne materiału. Z molibdenitu można tworzyć efektywnie działającą warstwę o grubości zaledwie 3 atomów. Jest ona bardzo stabilna i łatwo w niej kontrolować przepływ elektronów. Ponadto molibdenitowe tranzystory są bardziej wydajne. Przełączają się też szybciej niż tranzystory krzemowe.

Jak informuje profesor Kis, molibdenit równie efektywnie jak krzem wzmacnia sygnał elektryczny. Sygnał wyjściowy może być czterokrotnie silniejszy niż sygnał wejściowy. A to oznacza, że możliwe jest produkowanie bardzo złożonych układów. Dla grafenu ta wartość wynosi około 1. Poniżej tej wartości sygnał wyjściowy będzie zbyt słaby, by pobudził do pracy następny, podobny układ - mówi Kis.

Molibdenit, w przeciwieństwie do krzemu, ma interesujące właściwości mechaniczne, które być może pozwolą na produkowanie elastycznych układów scalonych.

Autor: Mariusz Błoński
Źródło: KopalniaWiedzy

niedziela, 30 października 2011

Nowoczesny materiał dla lotnictwa - grafen

Jak wykorzystać grafen, najbardziej obiecujący materiał, nad którymi obecnie pracuje nauka? Może uda się go użyć do produkcji samolotów? Takie zadanie postawili przed sobą naukowcy z Politechniki Rzeszowskiej, którzy wraz z 11 partnerami pracują nad nowoczesnymi materiałami dla przemysłu lotniczego.

Grafen to najbardziej wytrzymały materiał na świecie. Jego wynalezienie zostało rok temu nagrodzone nagrodą Noble'a. Ma niezwykłe właściwości: jest przezroczysty, najcieńszy, bo ma grubość jednego atomu, sto razy wytrzymalszy niż stal, a do tego ma niezwykłe właściwości przewodzące. W przemyśle elektronicznym z powodzeniem mógłby zastąpić krzem. Laboratoria na całym świecie ścigają się, szukając najlepszych metod otrzymywania i zastosowania grafenu.

Politechnika Rzeszowska wraz z 11 partnerami w ramach największego w kraju projektu badawczego szuka nowoczesnych materiałów dla przemysłu lotniczego. Wśród zastępu naukowców z najróżniejszych dziedzin są również chemicy, którzy przede wszystkim szukają niepalnych materiałów do produkcji samolotów, by wyeliminować jedną z istotniejszych przyczyn katastrof lotniczych. Ale od kilku miesięcy pracują też nad wykorzystaniem grafenu. Do czego mógłby się on przydać w samolotach?

W PZL Świdnik zwrócono nam uwagę na problem z montażem instalacji do odmrażania w śmigłowcach i samolotach. Elementy łopat, wirników i skrzydeł muszą mieć instalacje odmrożeniowe. Stanowią ją przede wszystkim druty oporowe, przez które przepuszczany jest prąd - mówi prof. Henryk Galina, kierownik Katedry Technologii i Materiałoznawstwa Chemicznego Politechniki Rzeszowskiej.

Okazało się, że podczas montażu instalacji odmrażającej druty muszą być klejone, a prace znacznie ułatwiłoby wynalezienie takich klejów, które przewodziłyby elektryczność. Znaliśmy już wcześniej takie kleje, bo wystarczy wprowadzić do polimeru dobrze rozdrobnione srebro, aby uzyskać przewodnictwo. Tyle że tego srebra trzeba 30 proc., a z taką ilością domieszki klej traci swe właściwości - opowiada prof. Galina. Prowadzone przez dwa lata badania z wykorzystaniem polimerów przewodzących nie przyniosły oczekiwanych rezultatów. Właśnie wtedy pojawiły się pierwsze informacje o grafenie. Rzeszowscy naukowcy, korzystając z wyników badań naukowców ze Szczecina, które pokazały, że już dzięki domieszce 1 proc. grafenu uzyskuje się przewodnictwo, postanowili przetestować, czy materiał ten sprawdzi się w przemyśle lotniczym.

Badania zaczęły się w tym roku, a na zlecenie Politechniki Rzeszowskiej fizycznie prowadzone są w Centrum Materiałów Polimerowych i Węglowych PAN w Zabrzu. Tam naukowcy sprawdzają, czy kleje z domieszką grafenu stabilnie przenoszą tak duży ładunek prądu, jaki jest potrzebny w instalacjach odmrażających i czy są wystarczająco trwałe.

Zgodnie z planami prace rozpoznawcze mają być zakończone do końca listopada. Jeśli przyniosą pozytywne rezultaty, a wszystko wskazuje na to, że tak właśnie będzie, będą one kontynuowane.  Wyprodukowana porcja kleju z grafenem trafi na testy do PZL Świdnik. Mam nadzieję, że cena grafenu spadnie i my także włączymy się do badań. Po ich zakończeniu będziemy mogli wystąpić o opatentowanie wyników, a po zakończeniu projektu negocjować wdrożenie technologii w zakładach przemysłowych - mówi prof. Galina.

Jak można wykorzystać grafen?
Przez to, że jego największą zaletą jest przewodnictwo elektryczne, może zastąpić krzem. Pokryty nim ekran dotykowy ma szansę działać idealnie. Zgodnie z przewidywaniami grafen może być też wykorzystywany do produkcji przejrzystych, zwijanych w rolkę wyświetlaczy dotykowych oraz paneli słonecznych, a tworzywa sztuczne z jego dodatkiem będą bardziej wytrzymałe i odporne na temperaturę. Będą z nich mogły być produkowane samochody oraz samoloty.

Poważny problem jeszcze niedawno stanowiło jego przemysłowe uzyskiwanie. Metoda zaproponowana przez jego wynalazców za pomocą taśmy przylepnej Scotch absolutnie się do tego nie nadawała. Ale dziś metod jego wytwarzania jest coraz więcej. Jedną z nich, która daje jak dotąd najlepszej jakości grafen, zaproponowali polscy naukowcy z Instytutu Technologii Materiałów Elektronicznych i Wydziału Fizyki Uniwersytetu Warszawskiego.

Pozostanie jeszcze wymyślenie komercyjnych jego zastosowań. Na początku października Agencja Rozwoju Przemysłu powołała spółkę Nanocarbon, która ma pracować właśnie nad komercyjnym wykorzystaniem grafenu. By jej prace były efektywne, pomóc jej mają zewnętrzni eksperci z różnych dziedzin, których połączyć ma internetowa platforma.

Wyścig o najlepsze wykorzystanie grafenu trwa na całym świecie, a pierwsze produkty z jego zastosowaniem już się pojawiły. Samsung stworzył prototypowe ekrany dotykowe do komórek i laptopów, a IBM - grafenowy tranzystor.

autor: Agata Kulczycka
źródło: Gazeta.pl

Sztuczna skóra z nanorurek

Uczeni z amerykańskiego Uniwersytetu w Stanford opracowali pokrytą nanorurkami silikonową membranę, która wyczuwa nacisk, potrafiąc wykryć siłę kilku ton i zaledwie kilku gram. Jest przy tym przezroczysta i rozciągliwa. To idealny kandydat na sztuczną skórę inteligentnych protez lub ramion robotów.

Podstawowym składnikiem opracowanej właśnie powłoki jest błona zbudowana z węglowych nanorurek, rozpylonych na cienkiej warstwie silikonu. Dwie takie warstwy łączone są nanorurkową stroną do wewnątrz i przedzielone dodatkową, cienką warstwą silikonu. Początkowo nanorurki ułożone są w przypadkowy sposób, jednak kilkukrotne rozciągnięcie błony powoduje, że układają się w rodzaj sprężynek – dzięki temu przy ponownym rozciąganiu lub zgnieceniu błona wraca do poprzedniego kształtu. Można ją nawet dwukrotnie wydłużyć bez obawy utraty właściwości. Wewnętrzna warstwa silikonu przechowuje ładunek elektryczny, ale jej pojemność zmienia się wraz ze zmianą grubości. Nanorurki działają dodatkowo jak elektryczne złącza. Na tej podstawie można bardzo precyzyjnie wykrywać siłę działającą na membranę.

Nasz czujnik potrafi zarejestrować zarówno siłę nacisku powstającą między palcem wskazującym a kciukiem, jak i dwukrotnie większą od siły wywieranej przez słonia stojącego na jednej nodze. W żadnym przypadku nie powstaną trwałe odkształcenia – opowiada współtwórca wynalazku dr Darren Lipomi. Badacz jest częścią zespołu kierowanego przez prof. Zhenan Bao, której celem jest stworzenie sztucznej superskóry.

Uczeni ze Stanford University chcą swój pomysł jeszcze udoskonalić. Przy pracy nad obecną wersją skupili się bowiem na rozciągalności i przezroczystości. Ich poprzednia sztuczna skóra, pozbawiona tych cech, była w stanie wykryć nacisk liczony w miligramach. Teraz zespół chce połączyć zalety obu konstrukcji. Zastosowanie swojego pomysłu widzą m.in. w tworzeniu „czujących″ dotyk protez i części robotów, w wykrywających nacisk bandażach oraz w dotykowych ekranach.

Uczeni z Uniwersytetu Stanford opowiadają o swoim wynalazku VIDEO

autor: Marek Matacz

sobota, 22 października 2011

Polskie urządzenie do implementacji jonowej

Urządzenie do pokrywania powierzchni materiałów jonami opracowali naukowcy z Instytutu Fizyki Plazmy i Laserowej Mikrosyntezy w Warszawie (IFPiLM). Dzięki wynalazkowi będzie można produkować półprzewodniki nowej generacji. 


Polscy naukowcy zbudowali źródło laserowe z unikalnym układem przyspieszania jonów do wybranej energii, dzięki któremu materiały można pokrywać jonami. Wynalazek IFPiLM eliminuje przy tym zanieczyszczenia.

Pokrywanie materiałów jonami, czyli tzw. implementacja jonowa polega na "wbijaniu" jonów w powierzchnię materiału. Może ona sprawić, że materiał zmieni swoje właściwości fizyczne, np. mechaniczne lub elektryczne.

Urządzenie już wykorzystano do produkcji próbek półprzewodnika nowej generacji: warstwy krzemionki z uformowanymi nanokryształami germanu. Półprzewodniki tego typu mogą znaleźć nowe zastosowania w elektronice, np. generować światło lub posłużyć do dalszej miniaturyzacji układów pamięciowych.

Obecnie do implementacji jonowej najczęściej stosuje się akceleratory. Od akceleratorów prostsze, tańsze i bardziej uniwersalne okazują się jednak laserowe źródła jonów (Laser Ion Source - LIS). LIS to proste urządzenia, wytwarzające jony wskutek oddziaływania skupionej wiązki laserowej z tarczą umieszczoną w komorze próżniowej. Dzięki urządzeniu tego typu, w przeciwieństwie do akceleratora, można np. wytwarzać jony z materiałów trudnotopliwych - np. z tantalu czy wolframu.

Laserowe źródła jonów mają niestety pewne wady: znajdujące się w tarczy zanieczyszczenia często stwarzają problemy - ich jony mogą wraz z właściwymi jonami wpływać na próbkę. Dodatkowo impuls laserowy wyrywa z tarczy drobiny materiału, które osadzają się na próbce i zaburzają jej powierzchnię. Obecność zanieczyszczeń uniemożliwia zastosowanie LIS w przemyśle. Aby zapobiec takim efektom, zaprojektowaliśmy i zbudowaliśmy urządzenie do implementacji jonowej z bardzo oryginalnym elektrostatycznym układem przyspieszania jonów - mówi doktorant Marcin Rosiński z IFPiLM.

W urządzeniu zbudowanym w IFPiLM impuls laserowy trwa 3,5 nanosekundy i niesie mało energii. W początkowej fazie oddziaływania z materią energia ta zwiększa energię swobodnych elektronów w tarczy i to one zaczynają jonizować atomy tarczy i jej zanieczyszczeń. Pozostała energia impulsu laserowego grzeje bezpośrednio zjonizowaną materię, co powoduje jej szybką ekspansję. Natura procesu sprawia, że wyrzucane z plazmy jony nie unoszą jednakowej energii, a więc mają szeroki rozkład energetyczny.

W polskim urządzeniu drobiny materiału wyrwane z tarczy pod wpływem impulsu laserowego są obojętne elektrycznie. Ekspandują bez odchylania i trafiają w przegrodę ustawioną na osi układu, przed próbką. Z kolei część jonów tarczy i zanieczyszczeń omijających przegrodę jest przyspieszana i skupiana przez pole elektryczne na osi układu za przegrodą. Parametry pola dobraliśmy w taki sposób, że do próbki dolatują tylko cięższe jony tarczy, o mniej więcej tej samej energii - wyjaśnia Rosiński.

Zastosowany w urządzeniu niskoenergetyczny laser nie grzeje się i w kilkadziesiąt minut może wygenerować 10 tys. i więcej impulsów świetlnych. Naukowcy mogą więc precyzyjnie kontrolować liczbę jonów docierających do próbki.

Rozwiązanie zaproponowane przez naukowców z IFPiLM zostało zastosowane do badań implantacji jonów germanu w warstwie krzemionki, aby wytworzyć w niej nanokryształy germanu. Powstaje w ten sposób zmodyfikowany półprzewodnik dla nowych zastosowań w elektronice. Nasze zaimplantowane próbki, po wygrzaniu, przebadaliśmy różnymi metodami w specjalistycznych laboratoriach, głównie na Uniwersytetach w Mesynie i Katanii na Sycylii. Obserwowaliśmy zarówno skutki implementacji jonów, jak i strukturę nanokrystaliczną próbek - mówi Rosiński.

Symulacja numeryczna torów jonów w laserowym źródle jonów, opracowanym w IFPiLM. Wiązka laserowa (na symulacji niewidoczna) trafia w tarczę po lewej (zaznaczoną na zielono). Wytwarzane laserem jony germanu są przyspieszane za pomocą pola elektrycznego i skupiane na próbce krzemionki SiO2,umieszczonej w miejscu największego zagęszczenia jonów (okolice położenia 220 na osi poziomej). Zanieczyszczenie osadzają się na przegrodzie umieszczonej przed próbką. Źródło: IFPiLM

Prace nad optymalizacją naszego urządzenia pod kątem zastosowań przemysłowych zakończymy w dwa lata, ale już teraz zaczynamy szukać firm zainteresowanych wdrożeniem tej technologii - podsumowuje prof. Jerzy Wołowski, szef zespołu zajmującego się w IFPiLM badaniami i zastosowaniami oddziaływań laserów z materią.

Budowę urządzenia do implantacji laserowej rozpoczęto w IFPiLM kilka lat temu w ramach europejskiego programu SEMINANO. Obecnie głównym źródłem finansowania badań jest Ministerstwo Nauki i Szkolnictwa Wyższego. 

źródło: PAP - Nauka w Polsce

środa, 19 października 2011

Tworzenie grafenu w niższej temperaturze dzięki domieszce złota

Na Uniwersytecie Cambridge powstała technika pozyskiwania wysokiej jakości grafenu w temperaturze ponad dwukrotnie niższej niż dotychczas. Osiągnięcie to znakomicie ułatwi zastosowanie grafenu w praktyce.

Zespół pracujący pod kierunkiem Roberta Weatherupa i Bernharda Bayera nałożył cienką warstwę złota na nikiel, na którym wzrasta grafen. To pozwoliło obniżyć temperaturę, w której tworzony jest grafen do zaledwie 450 stopni Celsjusza.
Obecnie najlepszą znaną metodą pozyskiwania wysokiej jakości grafenu jest osadzanie z fazy gazowej. W tym celu podłoże z niklu lub miedzi, które działa jak katalizator, poddaje się działaniu gazu zawierającego węgiel. W temperaturze ponad 1000 stopni Celsjusza dochodzi do osadzenia się warstwy węgla na podłożu. Powstaje grafen. Metoda taka nie jest jednak pozbawiona wad. Wysokie temperatury niszczą część materiałów, które są wykorzystywane w produkcji elektroniki, przez co nie można z grafenu bezpośrednio tworzyć układów scalonych.

Tymczasem, jak odkryli brytyjscy uczeni, wystarczy do niklu dodać mniej niż 1% złota, by można było obniżyć temperaturę pracy z grafenem do 450 stopni Celsjusza. Co więcej, pozyskany w ten sposób grafen jest lepszej jakości. W tradycyjnej technice produkcji grafen pojawia się na całej powierzchni niklu i poszczególne kawałki tworzą się niezależnie. Z czasem powiększają się i łączą ze sobą, ale miejsca połączeń są mniej doskonałe niż pozostała powierzchnia grafenu i elektrony nie poruszają się nich równie swobodnie.

Tymczasem złoto blokuje wzrost grafenu. Pozwala zatem otrzymywać jednolite płachty, które rosły przez dłuższy czas, ale jako że nie napotkały na swojej drodze innych skrawków grafenu, nie łączyły się z nimi i nie występują w nich „szwy". Złoto pozwala zatem nie tylko na pozyskanie grafenu w znacznie niższej temperaturze, ale również na produkcję materiału o lepszych właściwościach.

Uczeni z Uniwersytetu w Cambridge przeprowadzili przy okazji szczegółowe badania nad wzrostem grafenu. Dowiedzieli się, że do osadzania się grafenu nie dochodzi tylko w czasie, gdy podłoże jest schładzane oraz że na wzrost wpływa nie tylko powierzchnia katalizatora, ale też obszar poniżej.

Grafen wciąż jest przedmiotem laboratoryjnych badań i nie trafił jeszcze na linie produkcyjne.  Jednak dzień jego rynkowego debiutu jest coraz bliżej. Idealnie byłoby, gdyby grafen udało się produkować bezpośrednio na izolatorze. Obecnie trzeba go przenosić z podłoża, na którym jest tworzony, na podłoże, gdzie ma powstać obwód. Problem w tym, że izolatory słabo sprawdzają się w roli katalizatorów do pozyskiwania grafenu z fazy gazowej. Badania nad wzrostem grafenu to wciąż młoda dziedzina wiedzy, ale rozwija się bardzo szybko - stwierdził Weatherup.

Autor: Mariusz Błoński
Źródło: KopalniaWiedzy, University of Cambridge

wtorek, 18 października 2011

Nowa forma grafenu

Naukowcom udało się uzyskać nową formę grafenu. Okazuje się, że gdy jego arkusze zostaną zmięte jak kartki papieru, stają się odporniejsze na mechaniczne odkształcenia.
  
Grafen jest supercienki, bardzo mocny, elastyczny i sprawdza się jako znakomity przewodnik – a to tylko kilka z jego zalet. Istnieje jednak istotna przeszkoda przy produkcji i wykorzystywaniu go na szerszą skalę: warstwy grafenu „lubią” układać się w stosy. I podobnie jak ryza papieru, która ma właściwości zdecydowanie inne niż pojedyncza kartka, tak stos arkuszy grafenu to zupełnie odmienny materiał – sztywny i trudniejszy w obróbce.

Badacze z amerykańskiego Uniwersytetu Northwestern opracowali nową formę grafenu, pozbawioną skłonności do układania się w bloki. Wyobraźcie sobie kosz pełen zmiętych arkuszy papieru. Możecie je zginać i upychać, jak mocno chcecie, ale w odróżnieniu od papieru ułożonego w ryzę osobne kartki ciągle będą miały swoją powierzchnię – wyjaśnia główny autor eksperymentu prof. Jiaxing Huang.

Idea „gniecenia” jest stosunkowo prosta: kropelki wody zawierające arkusze grafenu przepuszcza się przez wnętrze rozgrzanego pieca. Woda szybko paruje i w trakcie tego procesu arkusze są ściskane w kulki. Te z kolei nie mają regularnej powierzchni, a przez to tracą zdolność do ciasnego układania się na sobie. Zyskały za to zupełnie nową właściwość: dużą odporność na mechaniczne odkształcenia. Im silniej są ściskane, tym stają się mocniejsze.

Naukowcy już się zastanawiają nad tym, jak można wykorzystać tak ułożone arkusze. Myślę, że ta forma będzie przydatna w badaniu zastosowań grafenu w przechowywaniu oraz przetwarzaniu energii – przewiduje Huang.

Autor: Maciej Bójko
źródło: EurekNews.pl, ACSNANO

środa, 7 września 2011

Wodór paliwem przyszłosci

Naukowcy z University of Kentucky i University of Louisville wyliczyli, że niedrogi stop może posłużyć do pozyskiwania wodoru z wody za pomocą światła słonecznego. Dzięki najnowszym symulacjom komputerowym naukowcy dowodzą, że dodanie do azotku galu 2% antymonu spowoduje, iż po zanurzeniu stopu w wodzie i wystawieniu go na promienie słoneczne dojdzie do rozerwania wiązań pomiędzy tlenem a wodorem. Technika taka zwana jest fotoelektrochemiczną (PEC) elektrolizą wody.

Wcześniejsze badania nad PEC skupiały się na złożonych materiałach. My postanowiliśmy zrobić coś przeciwnego i skupiliśmy się na prostych materiałach, nawet jeśli miałyby one nie posiadać odpowiedniego ułożenia elektronów, wymaganych do spełnienia kryteriów PEC. Chcieliśmy sprawdzić, czy niewielkie dostosowanie ułożenia ich elektronów da pożądane wyniki - mówi profesor Madhu Menon.

Stop GaN-Sb to pierwszy prosty materiał, który może spełniać kryteria stawiane przed materiałami wykorzystywanymi w PEC. Podczas rozbijania wody stop nie ulega żadnemu zużyciu, może więc być wykorzystywany bardzo długo. Obecnie uczeni z UK i UofL pracują nad wykonaniem stopu i przetestowaniu jego właściwości.

Wodór może być paliwem przyszłości. Jednak jego produkcja wiąże się z dużymi kosztami oraz wielkim zużyciem dwutlenku węgla. Jeśli uda się go pozyskiwać za pomocą prostego i taniego stopu, w procesie, który nie będzie wymagał dostarczania sztucznie produkowanej energii, pokonana zostanie jedna z głównych przeszkód stojąca na drodze do rozpowszechnienia się wodoru jako paliwa.


Autor: Mariusz Błoński

Stukrotne przyśpieszenie internetu dzięki grafenowi

Grafenowe urządzenia wykorzystane w roli fotodetektorów mogą nawet stukrotnie przyspieszyć łącza internetowe. Do takich wniosków doszedł zespół naukowców z University of Manchester i University of Cambridge, wśród których byli odkrywcy grafenu, Andre Geim i Kostya Novoselov.

Uczeni wykazali, że połączenie grafenu z metalicznymi nanostrukturami powoduje, że grafen dwudziestokrotnie lepiej wykrywa światło. Już wcześniej odkryto, że gdy do kawałka grafenu zostaną przymocowane, w niewielkiej odległości od siebie, dwa metalowe przewody, to po oświetleniu całość generuje prąd elektryczny. Co jednak ważniejsze, takie urządzenie pracuje niezwykle szybko, być może nawet 100 razy szybciej niż obecnie wykorzystywane fotodetektory. Dzieje się tak dzięki olbrzymiej mobilności i szybkości elektronów w grafenie.

Dotychczas jednak poważną przeszkodą był fakt, że grafen absorbował jedynie 3% światła. Reszta impulsu przechodziła przez materiał nie wywołując żadnej reakcji elektronów.

Naukowcy rozwiązali ten problem łącząc grafen z metalicznymi nanostrukturami. Te tzw. plazmoniczne nanostruktury dwudziestokrotnie zwiększyły absorpcję światła przez grafen nie wpływając jednocześnie negatywnie na inne jego właściwości. Naukowcy nie wykluczają, że uda się jeszcze bardziej poprawić właściwości grafenu.

Grafen wydaje się naturalnym towarzyszem dla plazmoniki. Spodziewaliśmy się, że plazmoniczne nanostruktury mogą poprawić właściwości grafenu, ale miłym zaskoczeniem był fakt, że poprawa jest tak olbrzymia - mówi doktor Alexander Grigorenko, ekspert ds. plazmoniki.

Grafen odkrył zatem przed nami swoje kolejne niezwykłe właściwości. Jak zauważył profesor Andrea Ferrari z Cambridge Engineering Department dotychczas skupiano się na właściwościach grafenu przydatnych w fizyce i elektronice. Teraz widzimy, że jego potencjał można wykorzystać też na polu fotoniki i optoelektroniki, gdzie połączenie unikatowych optycznych i elektronicznych właściwości grafenu z nanostrukturami plazmonicznymi pozwoli na wykorzystanie tego materiału nawet w przypadku braku pasma wzbronionego, w takich zastosowaniach jak fotodetektory czy ogniwa słoneczne.

Autor: Mariusz Błoński

piątek, 26 sierpnia 2011

Ibogaina - naturalny lek na uzależnienia

Badania kliniczne prowadzone w USA i Wielkiej Brytanii dowiodły, że pojedyncze podanie dużej dawki ibogainy (rzędu ok. 1g) powoduje zanik symptomów głodu narkotykowego na czas od kilku dni do nawet kilku tygodni, co znacznie ułatwia przeprowadzenie wstępnej detoksykacji pacjentów. Ubocznym efektem podania takiej dawki jest też popadnięcie pacjenta w stan kilkudniowego letargu, który pomaga przeprowadzenie z nim seansów psychoterapii.

Ibogaina to organiczny związek chemiczny, psychoaktywny alkaloid indolowy wyekstrahowany z kory afrykańskiej rośliny Tabernanthe Iboga. 

Ibogainę stosuje się eksperymentalnie do leczenia uzależnień oraz przy usuwaniu symptomów reakcji abstynencyjnej organizmu po odstawieniu narkotyków uzależniających fizycznie. Stwierdzono, że ibogaina jest skuteczna przy leczeniu uzależnień od kokainy, heroiny, etanolu i nikotyny. Ibogaina jest też czasem stosowana jako lek pomocniczy przy psychoterapii. Jak dotąd nie stwierdzono, aby ibogaina wykazywała właściwości uzależniające. Prowadzone także są terapie doświadczalne w stosowaniu ibogainy w leczeniu depresji, wskazujące na wysoką skuteczność. 

źródło: wikipedia.org

zainteresowanym szerzej tą tematyką polecam artykuły o ibogainie w j. polskim:

niedziela, 19 czerwca 2011

Silnik na magnesy stałe. Quasi perpetuum mobile?

Na Uniwersytecie Technologicznym w Delft (Holandia) turecki wynalazca Muammer Yildiz zademonstrował swój silnik magnetyczny napędzany wyłącznie energią z magnesów. W prezentowanym silniku widoczny był obracający się z dużą prędkością wentylator oraz nie było przyłączonych żadnych przewodów. Następnie urządzenie zostało rozmontowywane przed grupą około 30-tu naukowców obecnych w pomieszczeniu.

Po nieprzerwanej pracy ze stałą prędkością, trwającej dłużej niż 10 minut, urządzenie zostało wyłączone, a potem rozmontowywane przed grupą obserwatorów w taki sposób aby mogli zobaczyć, że w urządzeniu nie było ukrytych żadnych baterii. "Free Energy jest możliwa", oznajmił wynalazca obserwatorom.

Po dokonano pomiaru prędkości i gęstości powietrza oszacowano moc wyjściową na około 250 Watów (wartość nie jest wspomniana w nagraniu video). Także po wyłączeniu kamery wymontowano wentylator z urządzenia i kilka osób próbowało zatrzymywać rękami obracający się wał, jednak nie były w stanie tego zrobić.

Nagranie [video] z prezentacji silnika w dn. 20.04.2010 
(EuroStaete Media Group).

Był to czwarty lub piąty pokaz Yildiz'a w Europie. W dniu 12.05.2010 wynalazca miał zademonstrować swój silnik w Niemczech.
Wyniki i dyskusja. Prezentacja na pewno przedstawia się bardzo obiecująco. Jednak przed przedstawieniem ostatecznych wniosków, mając na uwadze fakt, iż zaprezentowano wystarczający dowód na to, że jest to prawdziwy silnik na magnesy stałe, należy jeszcze dowieść dwóch rzeczy. Primo: W większości wykonywanych przez Yildiz'a prezentacji silnik nie pracował dłużej niż 10-15 minut. Wielkość rdzenia jest taka, że można by ulokować w nim ukrytą baterię i silnik, które mogłoby dostarczyć potrzebną energię. To trzeba wykluczyć. Secundo: Przeanalizowania i wykluczenia wymaga możliwość wyczerpania magnesu będącego źródłem energii. Byłoby to interesujące dla nauki, ale niepraktyczne dla produkcji energii.

Źródło: examiner.com
Więcej o wynalazcy na stronie peswiki.com
Polecany artykuł „Silnik napędzany energią stałych magnesów” Nexus, nr 5 (3/1999)

sobota, 18 czerwca 2011

Przełom na polu kwantowej teleportacji

Australijsko-japońskiemu zespołowi naukowców z Uniwersytetu Nowej Południowej Walii w Canberze i Uniwersytetu Tokijskiego udało się po raz pierwszy w historii dokonać kwantowej teleportacji całego zestawu informacji tzn. dzięki wykorzystaniu zjawiska splątania kwantowego, udało się przekazać pełny stan promienia światła.

Co to jest teoria kwantów?
Słowo "quantum" oznacza pewną ilość, porcję czegoś. W życiu codziennym przyzwyczailiśmy się do tego, że takie cechy przedmiotów jak rozmiar, waga, kolor, temperatura, pole powierzchni i szybkość zmieniają się w sposób ciągły. Np. jabłka mają najrozmaitsze kształty, rozmiary i kolory, bez żadnej zauważalnej gradacji tych cech. W skali atomowej sytuacja wygląda zupełnie inaczej. Takie właściwości cząstek jak pęd, energia i spin często zmieniają się nie w sposób ciągły, lecz skokowo. W klasycznej mechanice newtonowskiej zakładamy, że zmiany właściwości cząstek są ciągłe. Gdy fizycy się przekonali, że to założenie załamuje się w skali atomowej, musieli stworzyć zupełnie nową mechanikę - mechanikę kwantową - która uwzględniałby nieciągłość w zachowaniu materii w skali atomowej. Teoria kwantów to ogólny schemat pojęciowy, z którego wynika mechanika kwantowa. ("Duch w atomie. Dyskusja o paradoksach teorii kwantowej." P.C.W. Dawies, J.R. Brown, Wydawnictwo CIS, Warszawa 1996, str. 11)

Dziś możemy teleportować co najwyżej strumień światła, cząstki subatomowe i kwantowe właściwości atomów, natomiast nie możemy teleportować obiektów materialnych w zwykłym rozumieniu tego terminu. Ale uczeni sądzą, że w ciągu 10-ciu lat może stać się możliwe teleportowanie cząsteczek chemicznych. To otwiera drogę do teleportacji większych obiektów nieożywionych. A potem ... ("Teleportacja" David Darling, Wydawnictwo Amber sp. z o.o. Warszawa 2006, str. 21)

Doniesienia ze świata nauki akademickiej utwierdzają w przeświadczeniu, że następuje materializacja powyższej prognozy.

Naukowcy z University of Tokio oraz współpracujący z nimi uczeni z University of New South Wales (m.in. prof. Akira Furusawa z Wydziału Fizyki Stosowanej UT oraz prof. Eleanor Huntington ze Szkoły Inżynierii i Informatyki UNSW) dokonali przełomu na polu kwantowej teleportacji. Eksperymenty były prowadzone w urządzeniu o nazwie teleporter w laboratorium profesora Akiry Furusawy.

Teleporter, fot. University of Tokyo.

Obecne badania pozwalają, po raz pierwszy w historii, na wiarygodne i szybkie teleportowanie kwantowej informacji. Właściwie każda kwantowa informacja zależy od kwantowej teleportacji. Nośnikiem informacji jest w tym przypadku światło. Dotychczas teleportowano pojedyncze kwanty czy atomy, chociaż niedawno pojawiła się też informacja o teleportacji fragmentu DNA. Opracowana teraz metoda wyróżnia się brakiem strat informacji podczas teleportowania stanów i będzie mogła być stosowana do transmisji dużych ilości kwantowych informacji i stworzenia kwantowych sieci telekomunikacyjnych.

Obiekty opisywane prawami fizyki kwantowej mogą znajdować się w dwóch stanach na raz, jak np. kot z paradoksu Schrödingera, który według opisu fizyki kwantowej jest jednocześnie żywy lub martwy. Taka sytuacja trwa, dopóki ktoś nie przeprowadzi obserwacji takiego obiektu, wówczas "stan kwantowy" zapada się do stanu klasycznego - kot okazuje się po prostu żywy albo martwy. Z tego powodu nie da się przenieść kwantowego stanu jednego obiektu na inny przez przeprowadzenie pomiaru i wprowadzenie obiektu docelowego w stan taki sam jak zmierzony - przy wykonywaniu pomiaru część informacji zostanie utracona.

Udana teleportacja światła zawierającego informacje to ważny krok w kierunku budowy komputerów kwantowych. Dzięki opracowaniu metody przenoszenia stanów kwantowych, będzie też można zbudować kwantowe komputery zdolne do wykonywania niemożliwych dzisiaj obliczeń - komputer kwantowy zamiast przeliczać po kolei wszystkie możliwe kombinacje danych, przeliczy wszystkie kombinacje danych "na raz" w jednym cyklu obliczeniowym.

Teksty źródłowe:

czwartek, 16 czerwca 2011

Polska metoda produkcji paliwa z dwutlenku węgla – biopaliwa II generacji

Firma EkoBenz sp. z o.o. z Lublina zajmuje się badaniami nad innowacyjnym biopaliwem i jego wdrożeniem na polski rynek. Głównym koordynatorem projektu jest prof. Dobiesław Nazimek kierownik Katedry Chemii Środowiskowej Uniwersytetu Marii Curie-Skłodowskiej (UMCS) - wynalazca procesu sztucznej fotosyntezy, pozwalającego na stosunkowo tanie wytwarzanie benzyny i oleju napędowego z CO2.

Pomysł firmy EkoBenz polega na produkowaniu benzyny syntetycznej i oleju napędowego z alkoholu. Technologię opracował prof. Dobiesław Nazimek z UMCS w Lublinie oraz dwaj przedsiębiorcy - Stanisław Jabłoński oraz Waldemar Zaniuk. Proces produkcji polega na zsyntetyzowaniu metanolu z wody i dwutlenku węgla przy udziale katalizatorów i głębokiego promieniowania ultrafioletowego. Następnie otrzymany alkohol jest separowany i sprzęgany do wyższych węglowodorów – benzyny i oleju napędowego.

Na wdrażanie tej nowej technologii wytwarzania czystego paliwa do silników spalinowych firma EkoBenz uzyskała dotację unijną.

Patent i wdrożenie. W zbudowanym laboratorium zostanie uruchomiona instalacja pilotażowa, produkująca ponad 750 tys. litrów paliwa rocznie, sprawdzanego w specjalnych pojazdach. Ten etap prac testowych ma się zakończyć w tym roku uzyskaniem odpowiednich certyfikatów jakościowych, niezbędnych do uruchomienia produkcji, a później sprzedaży. Druga część projektu to instalacja przemysłowa, budowana od połowy 2011 do połowy 2012 r. Od lipca 2012 r. planowane jest uruchomienie normalnej produkcji. Docelowo w 2015 r. rafineria będzie wytwarzać 31 mln litrów biopaliwa, którego zaletą jest nieszkodliwość dla silnika – do procesu technologicznego nie wprowadza się siarki i azotu. Cała inwestycja zamknie się w kwocie 37,9 mln zł.

Każdego roku Polska emituje do atmosfery około 340 milionów ton CO2. Gdyby udało się zagospodarować zaledwie 10 % tego gazu, zyskalibyśmy paliwową niezależność.

Źródło:

czwartek, 9 czerwca 2011

Naziemna telewizja cyfrowa (NTC, DVB-T)

DVB-T - Digital Video Broadcasting-Terrestial czyli naziemna telewizja cyfrowa to standard telewizji cyfrowej nadawanej z nadajników naziemnych. W Polsce do połowy 2013 roku telewizja cyfrowa zastąpiła całkowicie telewizję analogową czyli tę odbieraną teraz za pomocą zwykłej anteny i telewizora. 

Korzyści z wprowadzenia DVB-T: a) większa liczba kanałów, b) nadajniki dzięki emisji cyfrowej mogą transmitować większą ilość programów telewizyjnych i radiowych w obrębie jednego kanału. Obecnie na jednym kanale możemy oglądać jeden program. W przypadku emisji cyfrowej na jednym kanale można odbierać jeden tzw. multipleks czy zestaw kilku kanałów telewizyjnych w tym również programy w jakości HD. c) zdecydowanie lepsza jakość obrazu i dźwięku. Emisja cyfrowa zapewnia idealną jakość obrazu i dźwięku. Oglądając cyfrowy obraz nie zobaczymy "śnieżenia" czy "odbić", które często powodują duży dyskomfort w oglądaniu tradycyjnej telewizji analogowej. W obrazie cyfrowym tego typu zjawiska nie występują. Dźwięk w DVB-T przesyłany jest również cyfrowo w najwyższej jakości. Dodatkowo możemy odbierać wielokanałowy (przestrzenny) dźwięk Dolby Digital.

Programy naziemnej telewizji cyfrowej
Oferta DVB-T składa się z następujących kanałów: TVP1, TVP2, TVP Info, TVP Regiony, TVP Historia, TVP Polonia, TVP Kultura, TVN, TVN Siedem, Polsat, Polsat Sport News, TV4, TV6, Puls, Puls 2, Eska TV, Polo TV, TTV i ATM Rozrywka.

Odbiór naziemnej telewizji cyfrowej
WAŻNE! W Polsce obowiązuje standard kodowania MPEG4 (H.264). Tylko sprzęt wyposażony w tuner (odbiornik) umożliwiający dekodowanie MPEG4, będzie w stanie odbierać DVB-T.

Aby odbierać telewizję naziemną DVB-T potrzebny będzie:
telewizor z wbudowanym dekoderem DVB-T lub tuner telewizyjny z dekoderem DVB-T (tzw. Set Top Box czyli odbiornik naziemnej telewizji cyfrowej) lub zewnętrzna bądź wewnętrzna karta telewizyjna do komputera z możliwością odbioru DVB-T. 
Sprzęt z tunerem MPEG2 będzie mógł odbierać sygnał MPEG4 jeżeli ma możliwość przekodowania MPEG-4 do MPEG-2. Taką możliwość mają np. niektóre telewizory wyposażone w złącze CI. 

Wykaz programów NTC nadawanych w skali ogólnopolskiej wg poszczególnych multipleksów:


MUX 1: TV Trwam, TVP ABC, Stopklatka TV, Fokus TV, ANTENA, Eska TV, TTV, Polo TV;

MUX 2: Polsat, Super Polsat, TVN, TVN7, TV Puls, PULS 2, TV4, TV6;

MUX 3: TVP1 HD, TVP2 HD, TVP 3, TVP Info, TVP Historia, TVP Sport HD; 

MUX 8: WP, Metro, Zoom TV, Nova TV, TVP Kobieta, TVP Kultura

Istnieją również multipleksy lokalne.


Całkowite wyłączenie analogowej naziemnej transmisji programów telewizyjnych w Polce i zastąpienie jej transmisją cyfrową nastąpiło  31 lipca 2013 r.
 
 
na podstawie informacji ze strony: telewizja-cyfrowa
przydatne linki:  ntvc emitel


[AKTUALIZACJA 16.02.2022 r.]
 

W roku 2022 nastąpi przełączenie na naziemnej telewizji cyfrowej drugiej generacji (DVB-T2).  

Dekodery w standardzie H.265/HEVC gotowe są do odbioru DVB-T2, która już niebawem będzie jedynym obowiązującym standardem transmisji sygnału cyfrowego w Polsce.

Obecnie nadawane są kanały na multipleksie  DVBT-2 test TVP: TVP Kobieta, TVP Kultura, TVP Dokument, TVP Rozrywka

Planowane terminy przełączeń sygnału telewizyjnego DVB-T na DVB-T2/HEVC w 2022 r. 

poniedziałek, 6 czerwca 2011

Grafen jako nanomateriał zwalczający bakterie z gatunku Eschrichia coli

Najnowsze eksperymenty, przeprowadzone przez nanotechnologów z Chińskiej Akademii Nauk pokazały, że grafenowe skrawki posiadają również właściwości antybakteryjne (przynajmniej w stosunku do bakterii z gatunku Eschrichia coli). Mogą zatem pomóc w stworzeniu nowej generacji preparatów dezynfekujących, a nawet antyperspirantów czy środków chroniących przed nieprzyjemnym zapachem obuwia.

Qing Huang i Chunhai Fan z Szanghajskiego Instytutu Fizyki Stosowanej podkreślają, że po odkryciu grafenu w 2004 r. rozpoczął się wyścig, którego celem jest rozpoznanie właściwości tej nowej odmiany alotropowej węgla oraz znalezienie dla niej niszy komercyjno-przemysłowej. Tym sposobem grafen trafił już do ogniw słonecznych, chipów i czujników. Chiński zespół postanowił zaś sprawdzić, jak wpływa on na żywe komórki.

Płaszczyzny utworzone z grafenu wykazują doskonałe właściwości antybakteryjne, eliminując ze swej powierzchni nawet do 99 procent drobnoustrojów w czasie zaledwie 120 minut. Co więcej, grafen jest całkowicie bezpieczny dla komórek zwierzęcych. 

W pierwszej fazie badań naukowcy wytworzyli płatki tlenku grafenu, które następnie odfiltrowali tak, by grafen utworzył materiał przypominający kawałek kartki. W tym celu zastosowano zmniejszone ciśnienie, które ułatwiło wytworzenie grafenowej bibułki. Następnie, na powierzchnię grafenu nałożono kolonię bakterii, po czym całość zamknięto w inkubatorze utrzymującym temperaturę podwyższoną do 37 stopni Celsjusza. Obserwacje mikroskopowe, w tym z wykorzystaniem transmisyjnego mikroskopu elektronowego dowiodły, iż komórki bakterii znajdujące się w bezpośrednim kontakcie z grafenem ulegają uśmierceniu. Dokładna analiza ujawniła przyczynę "zgonu". Według naukowców, grafen wnika do organelli komórkowych zawartych w cytoplazmie, niszcząc w ten sposób komórki. W trakcie badań okazało się, że już po 120 minutach inkubacji niemal z 99 procent komórek hodowanych na powierzchni grafenowej bibułki uległo zniszczeniu.

Obecnie prowadzone są badania mające na celu dokładne poznanie mechanizmu odpowiedzialnego za uśmiercanie mikroorganizmów oraz prowadzone są testy, które mają zaowocować produkcją antybakteryjnych materiałów np. opatrunków, których głównym przeciw drobnoustrojowym komponentem będzie tlenek grafenu. Jak zauważają autorzy odkrycia, ważną cechą grafenu jest (potwierdzony eksperymentalnie) całkowity brak cytotoksyczności w stosunku do komórek zwierzęcych, w tym ludzkich.

źródła:


środa, 1 czerwca 2011

Zastosowanie zmiennego pola magnetycznego w medycynie

Działanie zmiennych pól magnetycznych na organizmy żywe w dzisiejszej medycynie jest bardzo szeroko badane, a ich wprowadzenie do klinik poparte zostało wieloma badaniami, wyjaśniającymi wpływ tego pola na mechanizmy funkcjonowania układów żywych. W Polsce sztandarową postacią w tej dziedzinie jest prof. zw. n. med. Aleksander Sieroń.

Zjawisko oddziaływania zmiennych pól magnetycznych o niskiej częstotliwości (ang. Extremely Low Frequency Magnetic Fields – ELF-MF) związane jest ze specyfiką organizmu człowieka i z fizycznymi parametrami pola. Do tych parametrów zaliczyć należy: indukcję magnetyczną, kształt pola oraz jego częstotliwość.

Te elementy składowe powodują końcowy efekt biologiczny ELF-MF będący pochodną oddziaływania na:
- nieskompensowane spiny magnetyczne pierwiastków diamagnetycznych i paramagnetycznch oraz wolnych rodników.
- ciekłe kryształy pochodzenia cholesterolowego, które występują w większości błon komórkowych, a które wykazują zmianę charakterystyki pod wpływem działania zmiennego pola magnetycznego.
- wpływ na prądy jonowe i będące ich pochodną wygenerowane potencjały błonowe.

Liczne publikacje z ostatnich lat wskazują, że zmienne pole magnetyczne wykorzystywane jest w kompleksowym leczeniu wielu chorób tj.: układu nerwowego, narządu wzroku, górnych dróg oddechowych, płuc, układu krążenia, przewodu pokarmowego, skóry i tkanek miękkich. Natomiast oddziaływanie zmiennych pól magnetycznych na organizmy żywe powoduje następujące efekty: polepszenie procesu utylizacji tlenu oraz oddychania tkankowego, działanie wazodilatacyjne i angiogenetyczne, nasilenie procesów regeneracji tkanek miękkich, przyśpieszenie procesu zrostu kostnego, działanie przeciwzapalne i przeciwobrzękowe, działanie analgetyczne.

Początkowo terapia zmiennym polem magnetycznym (magnetoterapia) miała duże wartości indukcji pola magnetycznego i stosowanie jej w obszarze głowy nie było do końca znane i poparte odpowiednimi badaniami. Po wprowadzeniu magnetostymulacji zaczęto stosować pole o niskiej wartości indukcji zawierające się w przedziale od 30 do 100 μT. Jak wynika z dostępnej literatury niskie wartości zmiennego pola magnetycznego stosowane są w leczeniu rożnych zmian i schorzeń w obrębie głowy.

Pola magnetyczne towarzyszą wszystkim zjawiskom elektrofizjologicznym. Organizm człowieka również podlega działaniu zmiennego pola magnetycznego. Na przestrzeni wielu lat bytowania na ziemi wskutek długotrwałej interakcji organizm wytworzył mechanizmy adaptacyjne umożliwiające właściwy przebieg procesów elektrofizjologicznych w tkankach i narządach przy ekspozycji na stałe pole magnetyczne ziemi. W ciągu ostatnich kilkuset lat zmniejszyła się jego siła nawet o 50%, w związku z czym niektórzy badacze uważają że u większości ludzi występują objawy niedoboru naturalnego pola magnetycznego, które obejmuje: brak energii, bóle głowy, mięśni, bezsenność, zaburzenia czynnościowe układu nerwowego, rzutuje na stan przedmiotowy chorych, przyspiesza wystąpienie niektórych schorzeń, stąd coraz częściej włącza się pole magnetyczne niskiej częstotliwości jako fizykalny czynnik leczniczy u ludzi.


Artykuł powstał na podstawie:
Zastosowanie zmiennego pola magnetycznego w medycynie
Zmienne pole magnetyczne w leczeniu depresji lekoodpornej
Zastosowanie zmiennego pola magnetycznego w stomatologii w warunkach uzdrowiska
Nowa koncepcja uzwojenia wzbudząjacego pole magnetyczne w zastosowaniu do magnetoterapii

piątek, 27 maja 2011

Zalety oświetlenia diodami LED

Popularność oświetlenia LED wzrasta w niesamowitym tempie. Jakie są przyczyny powodzenia tej technologii? Jakie cechy oświetlenia LED przyczyniają się do tak dużego zainteresowania światłem diod elektroluminescencyjnych określanych skrótem LED?

Wytwarzanie energii elektrycznej w naszym kraju wymaga zużywania paliw kopalnych. Z jednej strony owocuje to wyczerpywaniem się tych nieodnawialnych zasobów energii, z drugiej spalanie ich przyczynia się do ocieplania klimatu. Oświetlenie LED jest natomiast w chwili obecnej najmniej energochłonnym źródłem światła. Tak więc krótko mówiąc jest ekologiczne i ekonomiczne zarazem. 

Jak wielka jest różnica między tradycyjnym oświetleniem a technologią LED najłatwiej zobaczyć w cyfrach. Podczas gdy diody LED zamieniają w światło aż 60 % zużywanej energii, wydajność tradycyjnych żarówek wynosi zaledwie 5 %. Tak, to prawda, aż 95% energii zużywanej przez zwykłe żarówki zamienia się w ciepło! To z kolei sprawia, że lampą oświetlaną przez nie łatwo się poparzyć. Natomiast oprawy LED w zasadzie nie ulegają nagrzaniu. Jeśli są na to narażone, np. poprzez zastosowanie wielu diod w jednej oprawie, stosuje się specjalne urządzenia chłodzące. 

Ponadto oświetlenie LED jest oświetleniem z ekonomicznego wyboru. Firmy które przestawiają się z halogenowych źródeł światła na diody LED zmniejszają zużycie energii elektrycznej do tego stopnia, że mogą poczynić siedmio- a nawet dziesięciokrotne oszczędności. Wystarczy w miejscach, gdzie dotychczas były lampy halogenowe, zamontować diody w odpowiednich oprawach LED.

Ważny jest też aspekt zdrowotny technologii LED. Sprowadza się on z jednej strony do ochrony zdrowia samych użytkowników, z drugiej do ochrony środowiska. Otóż diody zamontowane w oprawach LED emitują światło pozbawione drgań i promieniowania UV. W ten sposób jest bezpieczne dla wzroku. Ponadto łatwe jest też pozbycie się starych opraw LED, ponieważ nie są one szkodliwe dla środowiska. Tak więc w odróżnieniu do źródeł światła, w których stosuje się różne metale ciężkie, oprawy LED można z czystym sumieniem wyrzucać do kosza.

Oczywiście, jeśli zamierzamy je wyrzucić dopiero gdy ulegną zużyciu, to problem ten odsuwa się w przyszłość o dobrych kilka lat. Oprawy LED są bowiem najtrwalszym oświetleniem. Podczas gdy tradycyjne żarówki świecą kilkaset godzin, a świetlówki kilka tysięcy, diody LED świecą przez dziesiątki tysięcy godzin.

autor: Krzysztof Fratczak
artykuł pochodzi z serwisu artelis.pl

wtorek, 26 kwietnia 2011

Silnik na sprężone powietrze

Mieszcząca się w mieście Melbourne w Australii spółka Engineair Pty Ltd. skupia się na rozwoju technologii silnika powietrznego opartej o unikalny koncept obrotowego tłoka.

W przeciwieństwie do konwencjonalnych silników powietrznych, silnik nazwany Engineair, a wynaleziony przez Angelo Di Pietro, faktycznie wyeliminował wibrację, zużycie wewnętrzne i tarcie, co oferuje duże możliwości różnorodnych zastosowań.

Po raz pierwszy w historii technologia ta daje możliwość efektywnego wykorzystania energii odnawialnej w napędach przyszłości.

Zapraszam do zapoznania się z tą pasjonującą, innowacyjną technologią oraz jej zastosowaniami i możliwościami: www.engineair.com.au


The Di Pietro motor concept is based on a rotary piston. The motor shown is effectively a 6 cylinder expansion motor. 
Тхе Ди Пьетро мотор концепт ис басед он а ротари пистон. Тхе мотор шовн ис эффецтивелы a 6 цилиндр ехпансион мотор. 
थे  डी  पिएत्रो  मोतोर  चोन्चेप्त  इस  बसेद  ओन  अ  रोतर्य  पिस्तोन. थे  मोतोर  शोव्न  इस  एफ़्फ़ेक्तिवेल्य  अ  ६  च्य्लिन्देर  एक्ष्पन्सिओन्  मोतोर
 ث دي بيتر موتور كونسبت إس بسد  أن  أ  روتاري  بيستون . ث  موتور  شون إس  يففيستيفيلي أ  6 سيليندير  يكسبانسيون  موتور .

poniedziałek, 25 kwietnia 2011

Nowe właściwości magnetyczne grafenu

Na Uniwersytecie Maryland odkryto sposób kontrolowania właściwości magnetycznych grafenu, który mógłby prowadzić do nowych zastosowań w pamięciach magnetycznych oraz magnetycznych pamięciach RAM. Jest to najnowsze z wielu odkrytych ostatnio zdumiewających właściwości grafenu.

Grafen jest obecnie postrzegany jako posiadający potężny - a nawet rewolucyjny - potencjał do zastosowań w nanotechnologii. Zespół badawczy profesora Michaela S. Fuhrera z Centrum Nanofizyki i Materiałów Zaawansowanych UMD zauważył, że grafen zyskuje właściwości magnetyczne, gdy jego struktura krystaliczna posiada defekty (wakaty). Wystarczy usunąć z grafenu niektóre atomy, a powstałe w ten sposób puste miejsca, posiadają moment magnetyczny oraz działają jak cienkie magnesy. Ponadto momenty te silnie oddziałują z elektronami w grafenie, który przewodzi prądy elektryczne, powodując znaczący wzrost oporu elektrycznego w niskiej temperaturze. Zjawisko to znane jest jako efekt Kondo, czyli anomalna zależność oporu od temperatury.


Schemat tranzystora grafenowego:
grafen (kolor czerwony), elektrody ze złota (żółty), dwutlenek krzemu (jasny) i substrat krzemu (czarny). 
Powiększenie przedstawia defekty w siatce krystalicznej grafenu. Wakaty (brakujące atomy) przedstawiono w otoczeniu atomów węgla w kolorze niebieskim. 
Grafika: Jianhao Chen and Michael S. Fuhrer, University of Maryland.


Efekt Kondo występuje zwykle, gdy do metali niemagnetycznych, takich jak złoto czy miedź, dodamy niewielkie ilości metalu magnetycznego np. żelaza lub niklu. Odkrycie efektu Kondo w grafenie zaskoczyło naukowców z dwóch powodów. Primo, badano system składający się z czystego węgla, bez żadnych tradycyjnych magnetycznych domieszek. Secundo, grafen charakteryzuje się bardzo niską gęstością elektronów, co oznacza, że efekt Kondo powinien pojawiać się tylko w skrajnie niskich temperaturach. Tymczasem w przypadku grafenu efekt Kondo zmierzono w temp. 90 Kelwinów. W takich temperaturach można go obserwować w metalach o bardzo wysokiej gęstości elektronów. Co więcej, temperatura Kondo, poniżej której występuje efekt Kondo, może być dostrajana za pomocą napięcia elektrycznego. Takiego zjawiska nie zaobserwowano w metalach.

Naukowcy przypuszczają, że te niezwykłe właściwości grafenu wynikają z faktu, iż elektrony zachowują się w nim tak, jakby nie miały masy, przez co wyjątkowo mocno oddziałują z nieregularnościami siatki krystalicznej, prowadząc do efektu Kondo przy stosunkowo wysokiej temperaturze.

Znalezienie odpowiedniego wzorca „wakatów" w grafenie spowoduje, że materiał ten może zyskać właściwości ferromagnetyczne. Poszczególne momenty magnetyczne mogą zostać połączone za pomocą efektu Kondo i ustawione w jednym kierunku. W ten sposób uzyskamy ferromagnes wykonany z węgla. Magnetyzm w grafenie umożliwi stworzenie wielu nowych nanoczujników. A połączenie właściwości magnetycznych ze świetnymi właściwościami elektrycznymi grafenu może mieć zastosowanie w spintronice - stwierdza profesor Fuhrer.

A co z grafenem w Polsce? 
Wicepremier i Minister Gospodarki Waldemar Pawlak zapowiedział w Wielki Piątek (22.04.2011), że będzie wspierać naukowców pracujących nad technologią wytwarzania grafenu i przy wdrożeniu tego materiału do zastosowania w przemyśle - zastrzegając, że do tego potrzeba jednak czasu i inwestycji.

Tak więc na naszych oczach materializują się wizje Polski, w której powstaje Dolina Grafenowa oraz kwitnie rozwój nowoczesnych technologii. 
Cała naprzód! Trzymamy ten kurs.

źródło:

czwartek, 14 kwietnia 2011

Trójwymiarowa telewizja bez okularów

Idea przygotowania ekranu do wyświetlania obrazów 3D, pozwalająca na oglądanie bez specjalnych okularów, sprowadza się do zamontowania na ekranie specjalnej przesłony lub cylindrycznych soczewek. W obydwu przypadkach efektem działania jest dostarczenie do lewego i prawego oka różnych obrazów. 

Na rynku dominują dwie techniki autostereoskopowe ("bezokularowe"):
metoda bariery paralaksy, metoda soczewkowa (soczewek lentykularnych).

Trójwymiarowa telewizja bez okularów
Techniki "okularowe" dominują na rynku 3D,
ale przyszłość należy do autostereoskopii

Metoda bariery paralaksy polega na umieszczeniu przed ekranem telewizora specjalnie zaprojektowanej przesłony wykonanej z nieprzeźroczystego materiału. Przesłona posiada szczeliny, przez które przekazywany jest obraz dla prawego oraz lewego oka. Rozmieszczenie szczelin współgra z możliwymi pozycjami obu oczu względem ekranu telewizora. Aby możliwe było oglądanie trójwymiarowych efektów w tej technologii, konieczne jest odpowiednie przygotowanie materiału wideo. Klatka obrazu zwana stereogramem powstaje poprzez złożenie dwóch obrazów - dla prawego oraz lewego oka. Tak spreparowany obraz pozwala na ujrzenie efektu 3D tylko naprzeciwko ekranu telewizyjnego, dlatego też najnowsze technologie tworzenia obrazów pozwalają na tworzenie pojedynczych klatek (panoramagramów), w skład których wchodzi znacznie większa ilość obrazów bazowych. W efekcie zwiększa się ilość puntów, w których widz oglądać może czysty, ostry i trójwymiarowy obraz.

Trójwymiarowa telewizja bez okularów
Autostereoskopowe metody wyświetlania obrazu 3D. 

Wygląda na to, że przyszłością jest metoda soczewek lentykularnych, ze względu na lepsze odwzorowanie barw i jasność obrazu. 

więcej na www.dipol.com.pl
artykuł pochodzi z serwisu artelis.pl
autor: Katarzyna G.

Na co zwracać uwagę podczas pomiaru cyfrowych sygnałów telewizyjnych?

Coraz większa popularność standardu DVB-S2 oraz postępująca cyfryzacja telewizji naziemnej zachęcają do zgłębiania technik pomiarów sygnałów modulowanych cyfrowo.

W przypadku sygnałów analogowych najważniejszymi parametrami, na jakie zwracać należało uwagę podczas wykonywania pomiarów, są: poziom sygnału na wejściu danej sieci oraz parametr C/N, czyli odstęp nośnej sygnału od szumów.
Ze względu na charakter sygnałów modulowanych cyfrowo (sygnał nie posiada jednej wyraźnej nośnej, przypomina raczej szum) pomiar C/N przestaje być dobrym nośnikiem informacji o sygnale. Dodatkowo, w przypadku sygnałów cyfrowych najistotniejszą rzeczą nie jest poziom sygnału, a jego jakość, której miarą jest szereg parametrów opisanych poniżej.
Parametrem niosącym informację o jakości sygnału jest BER (Bit Error Rate), mówiący o prawdopodobieństwie wystąpienia przekłamania informacji w danym strumieniu bitów. Sygnały cyfrowe przesyłane w kanale radiowym (DVB-S/S2 oraz DVB-T) poddawane są po stronie nadawczej dwustopniowemu kodowaniu nadmiarowemu. Zwiększa to wymagania co do przepływności danego kanału, ale pozwala odbiornikowi na likwidację błędów powstałych w kanale transmisyjnym poprzez zastosowanie odpowiednich algorytmów korekcyjnych (korekcja Viterbiego oraz Reed-Salomona).
Większość dostępnych na rynku mierników posiada możliwość pomiaru dwóch rodzajów bitowej stopy błędów - (channel) BER oraz aBER - bitowa stopa błędów po pierwszym stopniu korekcji sygnału (Viterbi). Należy mieć świadomość, który parametr mierzymy. Z punktu widzenia instalatora, pomiar aBER, którego wartość jest około milion razy mniejsza od BER, jest w większości przypadków bezcelowy.
Zakłada się, że sygnał cyfrowy o BER równym 1E-4 (1 bit na 10000 jest przekłamany) jest dobry jakościowo. Możemy mówić tutaj o pojęciu QEF (Quasi Error Free), czyli "zasadniczo bez błędów". W przypadku sygnałów o wysokiej rozdzielczości zalecane jest uzyskanie BER na poziomie 1E-6 lub lepszym.


Większość instalatorów, posiadając mierniki z podstawowymi funkcjami ogranicza się jedynie do pomiaru poziomu sygnału oraz bitowej stopy błędów. Tymczasem równie ważnym jest parametr MER (Modulation Error Ratio). Jest to odpowiednik S/N lub C/N dla sygnałów analogowych z tą różnicą, że poza szumami amplitudowymi uwzględnia również pozostałe źródła szumów, w tym niezwykle istotne w sygnałach modulowanych cyfrowo szumy fazowe.
MER przekazuje informację o marginesie, jaki posiada dana instalacja, zanim sygnał (obraz) zaniknie w niej całkowicie. Pogorszenie się tego parametru nie wpływa na spadek jakości odbioru, jednak przekroczenie pewnej bardzo wąskiej (rzędu 1 dB) granicy krytycznej spowoduje całkowity zanik sygnału.
Wartości typowe i minimalne współczynnika MER zależą od rodzaju modulacji (QPSK, 8PSK, QAM,...) oraz współczynnika FEC (Forward Error Correction). Przykładowo, dla sygnału naziemnej telewizji cyfrowej DVB-T z modulacją QPSK oraz FEC=2/3 wartość minimalna i typowa współczynnika MER wynosi odpowiednio 14 dB i 17 dB.

Istotną rzeczą jest analiza diagramu konstelacji. Diagram ten niesie informacje o rodzajach i wielkości szumów, jakie wpływają na sygnał.
Na co zwracać uwagę podczas pomiaru cyfrowych sygnałów telewizyjnych?  Na co zwracać uwagę podczas pomiaru cyfrowych sygnałów telewizyjnych?
Parametry BER, aBER, MER dla jednego z transponderów satelity Hotbird

więcej na www.dipol.com.pl
artykuł pochodzi z serwisu artelis.pl
autor: Katarzyna G.

środa, 13 kwietnia 2011

Brykieciarka do słomy pomysłem na energię



Jeśli szukamy odpowiedniego urządzenia do zapewnienia sobie wygodnego środka opałowego, powinniśmy szczególnie zwrócić uwagę na brykieciarkę. Tego rodzaju urządzenie stanowi znakomitą i wydajną maszynę do tworzenia specyficznego i wydajnego rodzaju brykietu.
Brykieciarka do słomy to urządzenie, które przy pomocy dwufazowego procesu wykonuje twardy, przeznaczony do palenia brykiet. Jeśli chcemy pozbyć się odpadów i nadmiarów słomy z pola, powinniśmy zainteresować się tą właśnie maszyną - nie będziemy żałować!
Niezbyt wygórowane ceny i wysoka jakość to właśnie to, czego potrzebuje większość z nas. Doskonałej jakości materiały, z jakich wytworzona została brykieciarka do słomy to gwarancja długoletniej pracy i wysokiej wydajności. Wartość energetyczna wytwarzanego materiału opałowego niemalże dorównuje węglowi, co czyni urządzenie niezwykle przyjaznym i potrzebnym. W dzisiejszych czasach, gdy ekologiczne zasilanie i ocieplanie coraz częściej zagląda pod dachy zwykłych ludzi, warto się zastanowić nad wykorzystaniem brykieciarki w swoim własnym gospodarstwie domowym.
Artykuł pochodzi z serwisu www.artykuly.net.pl
Autor: daro44