wtorek, 26 kwietnia 2011

Silnik na sprężone powietrze

Mieszcząca się w mieście Melbourne w Australii spółka Engineair Pty Ltd. skupia się na rozwoju technologii silnika powietrznego opartej o unikalny koncept obrotowego tłoka.

W przeciwieństwie do konwencjonalnych silników powietrznych, silnik nazwany Engineair, a wynaleziony przez Angelo Di Pietro, faktycznie wyeliminował wibrację, zużycie wewnętrzne i tarcie, co oferuje duże możliwości różnorodnych zastosowań.

Po raz pierwszy w historii technologia ta daje możliwość efektywnego wykorzystania energii odnawialnej w napędach przyszłości.

Zapraszam do zapoznania się z tą pasjonującą, innowacyjną technologią oraz jej zastosowaniami i możliwościami: www.engineair.com.au


The Di Pietro motor concept is based on a rotary piston. The motor shown is effectively a 6 cylinder expansion motor. 
Тхе Ди Пьетро мотор концепт ис басед он а ротари пистон. Тхе мотор шовн ис эффецтивелы a 6 цилиндр ехпансион мотор. 
थे  डी  पिएत्रो  मोतोर  चोन्चेप्त  इस  बसेद  ओन  अ  रोतर्य  पिस्तोन. थे  मोतोर  शोव्न  इस  एफ़्फ़ेक्तिवेल्य  अ  ६  च्य्लिन्देर  एक्ष्पन्सिओन्  मोतोर
 ث دي بيتر موتور كونسبت إس بسد  أن  أ  روتاري  بيستون . ث  موتور  شون إس  يففيستيفيلي أ  6 سيليندير  يكسبانسيون  موتور .

poniedziałek, 25 kwietnia 2011

Nowe właściwości magnetyczne grafenu

Na Uniwersytecie Maryland odkryto sposób kontrolowania właściwości magnetycznych grafenu, który mógłby prowadzić do nowych zastosowań w pamięciach magnetycznych oraz magnetycznych pamięciach RAM. Jest to najnowsze z wielu odkrytych ostatnio zdumiewających właściwości grafenu.

Grafen jest obecnie postrzegany jako posiadający potężny - a nawet rewolucyjny - potencjał do zastosowań w nanotechnologii. Zespół badawczy profesora Michaela S. Fuhrera z Centrum Nanofizyki i Materiałów Zaawansowanych UMD zauważył, że grafen zyskuje właściwości magnetyczne, gdy jego struktura krystaliczna posiada defekty (wakaty). Wystarczy usunąć z grafenu niektóre atomy, a powstałe w ten sposób puste miejsca, posiadają moment magnetyczny oraz działają jak cienkie magnesy. Ponadto momenty te silnie oddziałują z elektronami w grafenie, który przewodzi prądy elektryczne, powodując znaczący wzrost oporu elektrycznego w niskiej temperaturze. Zjawisko to znane jest jako efekt Kondo, czyli anomalna zależność oporu od temperatury.


Schemat tranzystora grafenowego:
grafen (kolor czerwony), elektrody ze złota (żółty), dwutlenek krzemu (jasny) i substrat krzemu (czarny). 
Powiększenie przedstawia defekty w siatce krystalicznej grafenu. Wakaty (brakujące atomy) przedstawiono w otoczeniu atomów węgla w kolorze niebieskim. 
Grafika: Jianhao Chen and Michael S. Fuhrer, University of Maryland.


Efekt Kondo występuje zwykle, gdy do metali niemagnetycznych, takich jak złoto czy miedź, dodamy niewielkie ilości metalu magnetycznego np. żelaza lub niklu. Odkrycie efektu Kondo w grafenie zaskoczyło naukowców z dwóch powodów. Primo, badano system składający się z czystego węgla, bez żadnych tradycyjnych magnetycznych domieszek. Secundo, grafen charakteryzuje się bardzo niską gęstością elektronów, co oznacza, że efekt Kondo powinien pojawiać się tylko w skrajnie niskich temperaturach. Tymczasem w przypadku grafenu efekt Kondo zmierzono w temp. 90 Kelwinów. W takich temperaturach można go obserwować w metalach o bardzo wysokiej gęstości elektronów. Co więcej, temperatura Kondo, poniżej której występuje efekt Kondo, może być dostrajana za pomocą napięcia elektrycznego. Takiego zjawiska nie zaobserwowano w metalach.

Naukowcy przypuszczają, że te niezwykłe właściwości grafenu wynikają z faktu, iż elektrony zachowują się w nim tak, jakby nie miały masy, przez co wyjątkowo mocno oddziałują z nieregularnościami siatki krystalicznej, prowadząc do efektu Kondo przy stosunkowo wysokiej temperaturze.

Znalezienie odpowiedniego wzorca „wakatów" w grafenie spowoduje, że materiał ten może zyskać właściwości ferromagnetyczne. Poszczególne momenty magnetyczne mogą zostać połączone za pomocą efektu Kondo i ustawione w jednym kierunku. W ten sposób uzyskamy ferromagnes wykonany z węgla. Magnetyzm w grafenie umożliwi stworzenie wielu nowych nanoczujników. A połączenie właściwości magnetycznych ze świetnymi właściwościami elektrycznymi grafenu może mieć zastosowanie w spintronice - stwierdza profesor Fuhrer.

A co z grafenem w Polsce? 
Wicepremier i Minister Gospodarki Waldemar Pawlak zapowiedział w Wielki Piątek (22.04.2011), że będzie wspierać naukowców pracujących nad technologią wytwarzania grafenu i przy wdrożeniu tego materiału do zastosowania w przemyśle - zastrzegając, że do tego potrzeba jednak czasu i inwestycji.

Tak więc na naszych oczach materializują się wizje Polski, w której powstaje Dolina Grafenowa oraz kwitnie rozwój nowoczesnych technologii. 
Cała naprzód! Trzymamy ten kurs.

źródło:

czwartek, 14 kwietnia 2011

Trójwymiarowa telewizja bez okularów

Idea przygotowania ekranu do wyświetlania obrazów 3D, pozwalająca na oglądanie bez specjalnych okularów, sprowadza się do zamontowania na ekranie specjalnej przesłony lub cylindrycznych soczewek. W obydwu przypadkach efektem działania jest dostarczenie do lewego i prawego oka różnych obrazów. 

Na rynku dominują dwie techniki autostereoskopowe ("bezokularowe"):
metoda bariery paralaksy, metoda soczewkowa (soczewek lentykularnych).

Trójwymiarowa telewizja bez okularów
Techniki "okularowe" dominują na rynku 3D,
ale przyszłość należy do autostereoskopii

Metoda bariery paralaksy polega na umieszczeniu przed ekranem telewizora specjalnie zaprojektowanej przesłony wykonanej z nieprzeźroczystego materiału. Przesłona posiada szczeliny, przez które przekazywany jest obraz dla prawego oraz lewego oka. Rozmieszczenie szczelin współgra z możliwymi pozycjami obu oczu względem ekranu telewizora. Aby możliwe było oglądanie trójwymiarowych efektów w tej technologii, konieczne jest odpowiednie przygotowanie materiału wideo. Klatka obrazu zwana stereogramem powstaje poprzez złożenie dwóch obrazów - dla prawego oraz lewego oka. Tak spreparowany obraz pozwala na ujrzenie efektu 3D tylko naprzeciwko ekranu telewizyjnego, dlatego też najnowsze technologie tworzenia obrazów pozwalają na tworzenie pojedynczych klatek (panoramagramów), w skład których wchodzi znacznie większa ilość obrazów bazowych. W efekcie zwiększa się ilość puntów, w których widz oglądać może czysty, ostry i trójwymiarowy obraz.

Trójwymiarowa telewizja bez okularów
Autostereoskopowe metody wyświetlania obrazu 3D. 

Wygląda na to, że przyszłością jest metoda soczewek lentykularnych, ze względu na lepsze odwzorowanie barw i jasność obrazu. 

więcej na www.dipol.com.pl
artykuł pochodzi z serwisu artelis.pl
autor: Katarzyna G.

Na co zwracać uwagę podczas pomiaru cyfrowych sygnałów telewizyjnych?

Coraz większa popularność standardu DVB-S2 oraz postępująca cyfryzacja telewizji naziemnej zachęcają do zgłębiania technik pomiarów sygnałów modulowanych cyfrowo.

W przypadku sygnałów analogowych najważniejszymi parametrami, na jakie zwracać należało uwagę podczas wykonywania pomiarów, są: poziom sygnału na wejściu danej sieci oraz parametr C/N, czyli odstęp nośnej sygnału od szumów.
Ze względu na charakter sygnałów modulowanych cyfrowo (sygnał nie posiada jednej wyraźnej nośnej, przypomina raczej szum) pomiar C/N przestaje być dobrym nośnikiem informacji o sygnale. Dodatkowo, w przypadku sygnałów cyfrowych najistotniejszą rzeczą nie jest poziom sygnału, a jego jakość, której miarą jest szereg parametrów opisanych poniżej.
Parametrem niosącym informację o jakości sygnału jest BER (Bit Error Rate), mówiący o prawdopodobieństwie wystąpienia przekłamania informacji w danym strumieniu bitów. Sygnały cyfrowe przesyłane w kanale radiowym (DVB-S/S2 oraz DVB-T) poddawane są po stronie nadawczej dwustopniowemu kodowaniu nadmiarowemu. Zwiększa to wymagania co do przepływności danego kanału, ale pozwala odbiornikowi na likwidację błędów powstałych w kanale transmisyjnym poprzez zastosowanie odpowiednich algorytmów korekcyjnych (korekcja Viterbiego oraz Reed-Salomona).
Większość dostępnych na rynku mierników posiada możliwość pomiaru dwóch rodzajów bitowej stopy błędów - (channel) BER oraz aBER - bitowa stopa błędów po pierwszym stopniu korekcji sygnału (Viterbi). Należy mieć świadomość, który parametr mierzymy. Z punktu widzenia instalatora, pomiar aBER, którego wartość jest około milion razy mniejsza od BER, jest w większości przypadków bezcelowy.
Zakłada się, że sygnał cyfrowy o BER równym 1E-4 (1 bit na 10000 jest przekłamany) jest dobry jakościowo. Możemy mówić tutaj o pojęciu QEF (Quasi Error Free), czyli "zasadniczo bez błędów". W przypadku sygnałów o wysokiej rozdzielczości zalecane jest uzyskanie BER na poziomie 1E-6 lub lepszym.


Większość instalatorów, posiadając mierniki z podstawowymi funkcjami ogranicza się jedynie do pomiaru poziomu sygnału oraz bitowej stopy błędów. Tymczasem równie ważnym jest parametr MER (Modulation Error Ratio). Jest to odpowiednik S/N lub C/N dla sygnałów analogowych z tą różnicą, że poza szumami amplitudowymi uwzględnia również pozostałe źródła szumów, w tym niezwykle istotne w sygnałach modulowanych cyfrowo szumy fazowe.
MER przekazuje informację o marginesie, jaki posiada dana instalacja, zanim sygnał (obraz) zaniknie w niej całkowicie. Pogorszenie się tego parametru nie wpływa na spadek jakości odbioru, jednak przekroczenie pewnej bardzo wąskiej (rzędu 1 dB) granicy krytycznej spowoduje całkowity zanik sygnału.
Wartości typowe i minimalne współczynnika MER zależą od rodzaju modulacji (QPSK, 8PSK, QAM,...) oraz współczynnika FEC (Forward Error Correction). Przykładowo, dla sygnału naziemnej telewizji cyfrowej DVB-T z modulacją QPSK oraz FEC=2/3 wartość minimalna i typowa współczynnika MER wynosi odpowiednio 14 dB i 17 dB.

Istotną rzeczą jest analiza diagramu konstelacji. Diagram ten niesie informacje o rodzajach i wielkości szumów, jakie wpływają na sygnał.
Na co zwracać uwagę podczas pomiaru cyfrowych sygnałów telewizyjnych?  Na co zwracać uwagę podczas pomiaru cyfrowych sygnałów telewizyjnych?
Parametry BER, aBER, MER dla jednego z transponderów satelity Hotbird

więcej na www.dipol.com.pl
artykuł pochodzi z serwisu artelis.pl
autor: Katarzyna G.

środa, 13 kwietnia 2011

Brykieciarka do słomy pomysłem na energię



Jeśli szukamy odpowiedniego urządzenia do zapewnienia sobie wygodnego środka opałowego, powinniśmy szczególnie zwrócić uwagę na brykieciarkę. Tego rodzaju urządzenie stanowi znakomitą i wydajną maszynę do tworzenia specyficznego i wydajnego rodzaju brykietu.
Brykieciarka do słomy to urządzenie, które przy pomocy dwufazowego procesu wykonuje twardy, przeznaczony do palenia brykiet. Jeśli chcemy pozbyć się odpadów i nadmiarów słomy z pola, powinniśmy zainteresować się tą właśnie maszyną - nie będziemy żałować!
Niezbyt wygórowane ceny i wysoka jakość to właśnie to, czego potrzebuje większość z nas. Doskonałej jakości materiały, z jakich wytworzona została brykieciarka do słomy to gwarancja długoletniej pracy i wysokiej wydajności. Wartość energetyczna wytwarzanego materiału opałowego niemalże dorównuje węglowi, co czyni urządzenie niezwykle przyjaznym i potrzebnym. W dzisiejszych czasach, gdy ekologiczne zasilanie i ocieplanie coraz częściej zagląda pod dachy zwykłych ludzi, warto się zastanowić nad wykorzystaniem brykieciarki w swoim własnym gospodarstwie domowym.
Artykuł pochodzi z serwisu www.artykuly.net.pl
Autor: daro44

czwartek, 7 kwietnia 2011

Grafen - nowy materiał i polska technologia


Polacy wyprzedzili inne grupy naukowców, które na całym świecie pracowały nad metodami przemysłowej produkcji grafenu - alotropowej odmiany węgla. Materiał ten jest zbudowany z atomów węgla połączonych sześciokątnymi wiązaniami i tworzących płaską błonę o grubości jednego atomu. 

Grafen jest materiałem niezwykłym. W temperaturze pokojowej przewodzi prąd dużo szybciej od znanych dotychczas półprzewodników jak krzem czy miedź. Ponadto jest twardszy od diamentu, ale jednocześnie pozwala się zginać. W skali nano materiał ten chłodzi się efektywniej niż krzem. Już dziś z jego wykorzystaniem można konstruować układy elektroniczne.


Naukowcy z Instytutu Technologii Materiałów Elektronicznych (ITME) oraz Wydziału Fizyki Uniwersytetu Warszawskiego opracowali sposób przeniesienia produkcji grafenu z laboratorium do fabryki. Wykorzystali do tego dostępne dziś na rynku urządzenia do wytwarzania struktur półprzewodnikowych. Metoda polskich naukowców pozwoli na wytwarzanie dużych powierzchni grafenu o najwyższej jakości. A to da możliwość upakowania większej liczby urządzeń elektronicznych na małej powierzchni. W efekcie komputery będą mniejsze, oszczędniejsze i kilkaset razy szybsze.

Technologia otrzymywania grafenu
Dotychczas uczeni amerykańscy korzystali z techniki epitaksjalnego wzrostu grafenu poprzez sublimację krzemu z węglika krzemu. Proces ten odbywa się w bardzo wysokiej temperaturze (ponad 1500 st. C), ale ponieważ krzem odparowuje najpierw tam, gdzie w strukturze węglika występują nieregularności struktury, powstający w tym procesie grafen ma wiele wad.

Zespół polskich uczonych, pod kierownictwem dr Włodzimierza Strupińskiego z ITME oraz prof. Jacka Baranowskiego, opracował technologię uzyskiwania dużych płacht grafenu wysokiej jakości. Udoskonalono technologię tak, że uniknięto konieczności odparowania krzemu. To pozwala na wytwarzanie nieuszkodzonych i powtarzalnych płytek grafenu na skalę komercyjną. Do wytworzenia dużej powierzchni grafenu zastosowano oryginalną metodę CVD na SiC tzn. technikę chemicznego osadzania z warstwy gazowej na podłożu z węglika krzemu.

metoda CVD (ang. Chemical Vapour Deposition)
źródło: Nano Letters

Dzięki temu pozyskany grafen jest mniej wrażliwy na niedoskonałości węglika, zapewnia wysoką ruchliwość elektronów rzędu 1800 cm2/Vs, umożliwia określenie liczby warstw jakie chcemy uzyskać oraz stopnia wzbogacenia innym materiałem. Badania wykazały nie tylko lepsze właściwości tak pozyskanego grafenu ale również istnienie w nim przerwy energetycznej. epi-lab.com

Obecnie polscy naukowcy pracują nad tranzystorem grafenowym, który powinien być gotowy za rok. Urządzenia takie będą pracować na częstotliwościach rzędu setek teraherców, niedostępnych dla elementów z krzemu (najnowszy tranzystor firmy IBM pracuje z prędkością 155 GHz).

Ponieważ krzemowe układy scalone dochodzą już do granicy swoich możliwości, bo nie da się bez końca zmniejszać rozmiaru krzemowych tranzystorów, przyspieszać ich pracy itp. grafen zastapi to podstawowe tworzywo elektroniki w najbliższej dekadzie. Już widzę oczyma wyobraźni Wielką Dolinę Grafenową gdzieś na rzeszowszczyźnie i Polskę jako potęgę w nanotechnologii.

materiały źródłowe:


sobota, 2 kwietnia 2011

Fotosynteza w sztucznym liściu - nowa technologia pozyskiwania energii

Naukowcy z MIT skonstruowali urządzenie, które wytwarza energię elektryczną w procesie podobnym do fotosyntezy. Budowę modelu wzorowano na odpowiednikach w przyrodzie tj. liściach dębu, klonu oraz roślinach zielonych. Urządzenie zostało wykonane ze stabilnych i niedrogich tworzyw, a więc technologia może posłużyć do wytwarzania prądu na szeroką skalę.

Zespół badawczy pod kierownictwem dr Daniela Nocera'y z Massachusetts Institute of Technology w U.S.A. opracował nową metodę pozyskiwania energii za pomocą urządzenia nazwanego "sztucznym liściem" (ang. artificial leaf), które swoimi gabarytami przypomina kartę do gry w pokera, jednak znacznie cieńszą.

Budowa i działanie sztucznego liścia: Na płytce krzemowej powlekanej fosforanami znajdują się komórki światłoczułe, elektroniczny układ do konwersji energii oraz katalizator kobaltowo-niklowy (substancja przyśpieszająca reakcję chemiczną). Urządzenie zanurzone w pojemniku z zawartością ok. 4 litrów wody i wystawione na działanie promieniowania słonecznego, przy normalnym ciśnieniu atmosferycznym i temperaturze pokojowej, rozszczepia wiązania chemiczne w cząsteczkach wody na tlen i wodór, które mogą być przechowywane w ogniwach paliwowych. video

prototyp sztucznego liścia

Dr Nocera prowadząc badania laboratoryjne prototypu sztucznego liścia wykazał, że jest urządzeniem stabilnym - pracował on bez przerwy ponad 45 godzin. Zachodząca w nim reakcja chemiczna była 10-krotnie wydajniejsza od tej przebiegającej w naturalnym liściu. Poza tym metoda ta dostarczała więcej energii niż obecnie spotykane ogniwa słoneczne. Według szacunków naukowców, używając tej technologii, będzie można zapewnić energię potrzebną do zasilenia przez cały dzień przeciętnego gospodarstwa domowego w krajach rozwijających się. Obecnie trwają dalsze badania optymalizacyjne tego urządzenia.

Zamiana energii słonecznej na wodór w warunkach otoczenia jest uważana za jedno z największych wyzwań naukowców w tym stuleciu. Naukowcy wierzą, że ten proces mógłby pomóc stworzyć tanią elektryczność, zmniejszyć naszą zależność od paliw kopalnych i pomóc łagodzić efekt cieplarniany.

źródła: technewsworld i sciencedaily